Home Notícias Como a Visa empregou inteligência artificial para verificar US$ 40 bilhões em...

Como a Visa empregou inteligência artificial para verificar US$ 40 bilhões em fraudes, já que os golpistas também estão recorrendo à IA

10
0
A IA pode tornar os golpes financeiros uma

Blocos formando um robô em fundo branco.

Yuichiro Chino | Momento | Getty Images

Gigante dos pagamentos Visto está usando inteligência artificial e aprendizado de máquina para combater fraudes, disse James Mirfin, chefe global de soluções de risco e identidade da Visa, à CNBC.

A empresa evitou 40 mil milhões de dólares em atividades fraudulentas de outubro de 2022 a setembro de 2023, quase o dobro do ano passado.

Táticas fraudulentas que os golpistas empregam incluem usar IA para gerar números de conta primários e testá-los consistentemente, disse Mirfin da Visa. O PAN é um identificador de cartão, geralmente de 16 dígitos, mas pode ter até 19 dígitos em alguns casos, encontrado em cartões de pagamento.

Usando bots de IA, os criminosos tentam repetidamente enviar transações on-line por meio de uma combinação de números de conta primários, valores de verificação de cartão (CVV) e datas de validade – até obterem uma resposta de aprovação.

Este método, conhecido como ataque de enumeração, leva a US$ 1,1 bilhão em perdas por fraude anualmenterepresentando uma parcela significativa das perdas globais devido a fraudes, de acordo com a Visa.

“Observamos mais de 500 atributos diferentes ao redor [each] transação, nós pontuamos isso e criamos uma pontuação – esse é um modelo de IA que realmente fará isso. Nós fazemos cerca de 300 bilhões de transações por ano”, Mirfin disse à CNBC.

Cada transação recebe uma pontuação de risco em tempo real que ajuda a detectar e prevenir ataques de enumeração em transações em que uma compra é processada remotamente sem um cartão físico por meio de um leitor de cartão ou terminal.

“Cada um desses [transactions] foi processado pela IA. Ele está analisando uma série de atributos diferentes e estamos avaliando cada transação”, disse Mirfin.

“Então, se você vir um novo tipo de fraude acontecendo, nosso modelo vai perceber, vai detectar, vai pontuar essas transações como de alto risco e então nossos clientes podem decidir não aprovar essas transações.”

Usando IA, a Visa também avalia a probabilidade de fraude para solicitações de provisionamento de tokens – para enfrentar fraudadores que alavancam engenharia social e outros golpes para provisionar tokens ilegalmente e realizar transações fraudulentas.

Nos últimos cinco anos, a empresa investiu US$ 10 bilhões em tecnologia que ajuda a reduzir fraudes e aumentar a segurança da rede.

Fraude generativa habilitada por IA

Os cibercriminosos estão recorrendo à IA generativa e outras tecnologias emergentes, incluindo clonagem de voz e deepfakes, para enganar as pessoas. Mirfin avisou.

“Golpes românticos, golpes de investimento, matança de porcos – todos eles usam IA”, disse ele.

A matança de porcos é uma tática de golpe na qual criminosos constroem relacionamentos com vítimas antes de convencê-las a investir seu dinheiro em plataformas falsas de negociação ou investimento de criptomoedas.

“Se você pensar no que eles estão fazendo, não é um criminoso sentado em um mercado pegando um telefone e ligando para alguém. Eles estão usando algum nível de inteligência artificial, seja uma clonagem de voz, seja um deepfake, seja engenharia social. Eles estão usando inteligência artificial para promulgar diferentes tipos disso”, disse Mirfin.

Ferramentas de IA generativas, como o ChatGPT, permitem que os golpistas produzam mensagens de phishing mais convincentes para enganar as pessoas.

Os cibercriminosos que usam IA generativa exigem menos mais de três segundos de áudio para clonar uma vozde acordo com a empresa de gerenciamento de identidade e acesso sediada nos EUA Okta, que acrescentou que isso pode ser usado para enganar familiares, fazendo-os pensar que um ente querido está em apuros, ou enganar funcionários bancários para transferir fundos da conta da vítima.

Ferramentas de IA generativa também foram exploradas para criar deepfakes de celebridades para enganar os fãs, disse Okta.

“Com o uso de IA generativa e outras tecnologias emergentes, os golpes estão mais convincentes do que nunca, levando a perdas sem precedentes para os consumidores”, disse Paul Fabara, diretor de risco e serviços ao cliente da Visa, no comunicado da empresa. relatório semestral de ameaças.

Os cibercriminosos que usam IA generativa para cometer fraudes podem fazê-lo por um preço muito mais baixo, visando várias vítimas ao mesmo tempo, usando os mesmos recursos ou menos, disse o Centro de Serviços Financeiros da Deloitte em um relatório. relatório.

“Incidentes como esse provavelmente proliferarão nos próximos anos, à medida que criminosos encontrarem e implementarem IA generativa cada vez mais sofisticada, mas acessível, para fraudar bancos e seus clientes”, disse o relatório, estimando que a IA generativa pode aumentar as perdas por fraude para US$ 40 bilhões nos EUA até 2027, ante US$ 12,3 bilhões em 2023.

No início deste ano, um funcionário de uma empresa sediada em Hong Kong enviou 25 milhões de dólares para um fraudador que fez deepfake seu diretor financeiro e instruído a fazer a transferência.

A mídia estatal chinesa relatou um caso semelhante na província de Shanxi este ano, onde uma funcionária foi enganada e transferiu 1,86 milhão de yuans (US$ 262.000) para um fraudador que usou uma imagem falsa de seu chefe em uma videochamada.

Source