Amazon envia um milhão de alertas de abuso infantil ligados à IA em 2025

Publicidade

Siga o Olhar Digital no Google Discover

A Amazon identificou centenas de milhares de arquivos com suspeita de envolverem abuso sexual infantil. Esses arquivos estavam em bases de dados usadas para treinar modelos de inteligência artificial (IA) da empresa. Esse volume de registros, enviado ao órgão americano de proteção à infância (NCMEC), causou um aumento de 15 vezes nas denúncias ligadas à IA em 2025. A Amazon foi a responsável pela maioria delas.

Embora a empresa tenha removido o conteúdo antes de usá-lo, especialistas criticam a falta de informações sobre a origem dos arquivos. Sem saber de onde os dados vieram, a polícia não consegue localizar criminosos ou resgatar vítimas.

Falta de detalhes sobre origem de arquivos suspeitos não ajuda trabalhos da polícia

Em 2025, a Amazon enviou mais de um milhão de relatórios de abuso infantil ligados à IA. Foi um aumento grande quando comparado aos 64 mil enviados em 2024. A empresa explica que os dados foram coletados de fontes externas e da internet aberta. E alega não ter detalhes técnicos que ajudem a polícia a rastrear os responsáveis. No entanto, o NCMEC aponta que outras empresas do setor, como Google e OpenAI, enviam poucas denúncias, mas fornecem dados detalhados que permitem investigações reais.

Para justificar a quantidade massiva de alertas, a Amazon diz usar uma configuração de busca “muito sensível” no intuito de garantir que nada passe despercebido. Isso gera muitos falsos positivos (casos que parecem crime, mas não são). O NCMEC reforça que apenas avisar que o crime existe, sem dar pistas de quem o cometeu, não ajuda a proteger crianças em perigo imediato. A organização, que inclusive recebe financiamento da Amazon, pede mais transparência sobre como esses bancos de dados são limpos e organizados.

Fachada de prédio da Amazon
Amazon diz usar configuração de busca “muito sensível” no intuito de garantir que nada passe despercebido durante treinamento dos seus modelos de IA (Imagem: Skorzewiak/Shutterstock)

A busca rápida para lançar novas IAs faz com que as empresas “puxem” volumes gigantes de dados da internet sem uma verificação profunda de segurança. David Thiel, pesquisador da área, alerta que a prioridade tem sido a velocidade em vez da análise ética sobre o que alimenta esses modelos. Como os dados vêm de terceiros ou são coletados automaticamente da web, a responsabilidade sobre quem postou o material criminoso se dilui. Além disso, o perigo de usar dados suspeitos, segundo pesquisadores, é que a IA pode aprender padrões abusivos e ganhar a capacidade de sexualizar fotos de crianças reais e/ou de gerar imagens sintéticas de abuso.

Até o momento, a Amazon afirma que suas IAs não geraram imagens de abuso a partir desse treinamento. A detecção foi feita por um sistema que compara imagens com um banco de dados de crimes já conhecidos, processo chamado de “hashing”. A empresa prometeu divulgar dados mais detalhados sobre suas práticas de segurança em março de 2026.

(Essa matéria usou informações de Bloomberg.)

Assista a filmes e séries

Assine Amazon Prime para assistir a filmes e séries populares, incluindo Amazon Originals premiados.
O Amazon Prime também inclui a entrega GRÁTIS e rápida de milhares de itens elegíveis,
mais de 2 milhões de músicas sem anúncios e muito mais. Clique aqui e comece seu teste GRÁTIS por 30 dias!

Olhar Digital

Compartilhe essa Notícia:

publicidade

publicidade