Jornal Metropolitano SP - Sua fonte de boas notícias em São Paulo, Campinas, Sorocaba, Santos e Litoral paulista.

Aguarde, carregando...

Segunda-feira, 29 de dezembro de 2025

Notícias/Segurança

Golpes com Inteligência Artificial: quando a tecnologia é usada para enganar, manipular e roubar

Deepfakes, vozes clonadas e mensagens geradas por IA tornam fraudes mais sofisticadas, silenciosas e difíceis de identificar.

Golpes com Inteligência Artificial: quando a tecnologia é usada para enganar, manipular e roubar
Metropolitano SP
IMPRIMIR
Espaço para a comunicação de erros nesta postagem
Máximo 600 caracteres.

Por Zeka Bocardi

A Inteligência Artificial (IA) tem transformado profundamente a forma como as pessoas se comunicam, trabalham e consomem informação. Presente em áreas como saúde, educação, mobilidade e segurança, a tecnologia também passou a ser explorada por criminosos, que utilizam recursos avançados para aplicar golpes cada vez mais convincentes, personalizados e perigosos.

O avanço dessas fraudes digitais representa um novo desafio para a sociedade. Golpes que antes apresentavam sinais claros de falsificação hoje se tornam quase imperceptíveis, enganando cidadãos comuns, empresários e até instituições.

Leia Também:


Como a Inteligência Artificial está sendo explorada por criminosos

Deepfakes: vídeos falsos com aparência real

Os chamados deepfakes utilizam IA para criar vídeos extremamente realistas, nos quais uma pessoa parece falar ou agir de forma autêntica, mesmo sem nunca ter feito aquilo. Criminosos têm usado essa técnica para simular autoridades, empresários, gestores e familiares, geralmente com pedidos urgentes de dinheiro ou informações confidenciais.

Em muitos casos, o impacto emocional causado pelo vídeo faz com que a vítima não questione a veracidade do conteúdo.


Clonagem de voz: quando a voz se torna uma armadilha

Com poucos segundos de áudio, extraídos de redes sociais, vídeos públicos ou mensagens de voz, a IA consegue reproduzir com precisão o tom, o ritmo e as características da fala de uma pessoa. Esse recurso tem sido amplamente utilizado em golpes envolvendo supostos pedidos de ajuda, emergências familiares ou ordens diretas de superiores hierárquicos.

A familiaridade da voz gera confiança imediata e reduz o tempo de reação da vítima.


Mensagens e abordagens personalizadas

Diferente dos golpes tradicionais, as fraudes com uso de IA não apresentam erros gramaticais ou textos genéricos. As mensagens são elaboradas de forma inteligente, adaptadas ao perfil da vítima e ao contexto em que ela vive, tornando o golpe mais difícil de ser identificado.

Essa personalização aumenta significativamente as chances de sucesso dos criminosos.


Perfis falsos altamente realistas

Ferramentas de IA permitem a criação de rostos, identidades e históricos completos de pessoas que simplesmente não existem. Esses perfis falsos são usados em golpes românticos, falsas oportunidades de emprego, negociações comerciais fraudulentas e extorsões emocionais, principalmente nas redes sociais.


Os golpes mais comuns envolvendo Inteligência Artificial

  • Golpe do parente em apuros com voz clonada

  • Golpe do falso chefe solicitando transferências urgentes

  • Golpe do romance com perfis criados por IA

  • Golpe do falso vídeo ou chamada de vídeo

  • Golpes financeiros com mensagens altamente convincentes

  • Fraudes empresariais com e-mails e áudios falsificados


Por que esses golpes são tão perigosos?

A Inteligência Artificial elimina muitos dos sinais clássicos de fraude. A comunicação é clara, a voz parece real, o rosto é reconhecível e a narrativa é coerente. Esse conjunto cria um falso senso de segurança e leva a vítima a agir rapidamente, sem realizar verificações básicas.

A pressa e o impacto emocional são aliados diretos dos criminosos.


Sinais de alerta que nunca devem ser ignorados

Mesmo diante de conteúdos aparentemente legítimos, especialistas alertam para sinais recorrentes:

  • Pedidos de urgência extrema

  • Solicitação de sigilo absoluto

  • Pressão emocional ou ameaças

  • Pedido de transferências, Pix ou dados pessoais

  • Recusa em permitir confirmação por outro canal

Desconfiar, nesse contexto, é uma atitude de autoproteção.


Como se proteger dos golpes com uso de IA

  • Confirme qualquer pedido por outro meio de contato

  • Estabeleça palavras ou códigos de segurança com familiares

  • Nunca realize pagamentos sem verificação

  • Evite exposição excessiva de áudios e vídeos pessoais

  • Utilize autenticação em duas etapas

  • Oriente idosos, familiares e colaboradores

A informação ainda é a principal barreira contra esse tipo de crime.


O que fazer se for vítima

Caso o golpe aconteça, é fundamental agir rapidamente:

  • Registrar um Boletim de Ocorrência

  • Comunicar o banco ou instituição financeira imediatamente

  • Guardar mensagens, áudios, vídeos e comprovantes

  • Alertar familiares e contatos próximos

  • Procurar o Procon, quando houver prejuízo financeiro


Um alerta para toda a sociedade

O uso criminoso da Inteligência Artificial não é um problema do futuro — é uma realidade atual. À medida que a tecnologia evolui, também cresce a responsabilidade coletiva de se informar, orientar e proteger.

Em um cenário onde tudo pode ser falsificado, verificar é mais importante do que confiar.

FONTE/CRÉDITOS: Metropolitano SP
Comentários:

Não possui uma conta?

Você pode ler matérias exclusivas, anunciar classificados e muito mais!
WhatsApp Jornal Metropolitano SP
Envie sua mensagem, estaremos respondendo assim que possível ; )
Termos de Uso e Privacidade
Esse site utiliza cookies para melhorar sua experiência de navegação. Ao continuar o acesso, entendemos que você concorda com nossos Termos de Uso e Privacidade.
Para mais informações, ACESSE NOSSOS TERMOS CLICANDO AQUI
PROSSEGUIR