Siga o Olhar Digital no Google Discover
Tudo sobre ChatGPT
Tudo sobre Inteligência Artificial
Tudo sobre OpenAI
A OpenAI baniu contas ligadas a órgãos de segurança da China, redes de golpes amorosos e grupos que tentam influenciar a opinião pública mundial. O relatório de ameaças de fevereiro de 2026, publicado nesta semana, detalha como o ChatGPT foi usado de forma indevida em campanhas contra líderes políticos e autoridades do governo.
Segundo a empresa, criminosos misturaram o uso da inteligência artificial (IA) com ferramentas comuns, como redes sociais e sites falsos, para tentar parecer mais confiáveis. Eles fizeram de tudo: desde criar agências de namoro de mentira até falsificar documentos e se passar por escritórios de advocacia.
OpenAI interrompe operações globais que usavam IA para espionagem e golpes financeiros
Uma dessas operações, ligada à polícia chinesa, usou o ChatGPT para planejar ataques de influência contra a primeira-ministra do Japão, Sanae Takaichi, de acordo com a OpenAI. Embora o sistema de IA tenha se recusado a ajudar no plano inicial de ataque direto, a ferramenta acabou sendo usada para gerenciar centenas de contas falsas e organizar seus relatórios. O objetivo era silenciar críticas e intimidar pessoas que discordam do governo chinês, tanto dentro quanto fora da China.
No Sudeste Asiático, uma rede no Camboja aplicava um golpe romântico focado em homens na Indonésia. O grupo usava o ChatGPT para criar textos e anúncios convincentes. O objetivo era levar as vítimas para sites falsos que exigiam pagamentos muito altos. Estima-se que essa operação, que misturava trabalho humano e automatizado, prejudicava centenas de pessoas todos os meses por meio de manipulação emocional.

A OpenAI também descobriu contas da rede russa Rybar sendo usadas para criar e traduzir posts em redes sociais como o X/Twitter e o Telegram. A análise mostrou que o conteúdo feito por IA nem sempre é o que garante o sucesso de uma postagem; na verdade, o que mais conta é a popularidade de quem publica. Além disso, os usuários costumam trocar entre vários modelos de IA para tentar escapar das regras e trabalhar de forma mais rápida.
Fora do mundo político, criminosos fingiram ser policiais americanos e advogados para extorquir dinheiro de pessoas que já tinham sido vítimas de golpes antes. Outros grupos tentaram descobrir informações sigilosas sobre a localização de prédios federais nos EUA e pediram ajuda para usar programas de troca de rostos (face-swapping) em vídeos.
A OpenAI defende que divulgar esses dados é fundamental para que o setor de tecnologia e a sociedade saibam como se proteger dessas novas ameaças digitais.
(Essa matéria usou informações da OpenAI.)










