Criminosos usam inteligência artificial para burlar reconhecimento facial e aplicar golpes bancários

Por Dentro De Tudo:

Compartilhe

Golpistas têm recorrido a tecnologias como deepfakes e inteligência artificial para enganar sistemas de reconhecimento facial, especialmente os usados em aplicativos bancários e plataformas públicas. Em investigações recentes, autoridades identificaram tentativas de fraudes com vídeos e imagens manipuladas para burlar o sistema “liveness”, que verifica se a pessoa é real e está viva.

Com dados obtidos de vazamentos, criminosos acessam contas de vítimas, especialmente de servidores públicos, contratam empréstimos e movimentam valores em nome delas. Em um dos casos, mais de R$ 50 milhões foram desviados em ataques coordenados. Muitas vezes, as vítimas só percebem o golpe após serem negativadas.

Além dos golpes virtuais, métodos mais simples também continuam sendo utilizados. Em outro caso, um funcionário de uma operadora de telefonia enganava clientes pessoalmente para validar acessos faciais e abrir contas fraudulentas em fintechs menores.

Especialistas alertam que o avanço da tecnologia, como a criação de expressões faciais falsas com apenas uma foto, torna as fraudes mais acessíveis, mesmo para quem não tem conhecimento técnico. A atuação dos golpistas é cada vez mais segmentada, com venda de dados, softwares e serviços ilegais em redes como o Telegram.

A recomendação é que bancos e plataformas digitais utilizem múltiplas camadas de autenticação, não apenas biometria facial, para reduzir riscos. Instituições também devem compartilhar informações e investir em ferramentas mais robustas para acompanhar o ritmo das inovações criminosas.

Foto: Divulgação / Polícia Civil do DF

Fonte: G1 / O Globo

#fraude #biometriafacial #deepfake #inteligenciaartificial #segurançadigital #cibercrime #golpe #tecnologia

Encontre uma reportagem