UNICEF pede criminalização de imagens de abuso infantil geradas por IA

Publicidade

Siga o Olhar Digital no Google Discover

A agência das Nações Unidas para a infância, UNICEF, pediu nesta quarta-feira (4) que países adotem leis para criminalizar a criação de conteúdo de abuso sexual infantil gerado por inteligência artificial (IA). O apelo ocorre diante do aumento de relatos sobre o uso de ferramentas de IA para produzir imagens que sexualizam crianças, prática que, segundo a entidade, tem causado danos reais e imediatos.

No mesmo contexto, o Reino Unido anunciou que pretende tornar ilegal o uso de ferramentas de IA para criar esse tipo de material, o que colocaria o país como o primeiro do mundo a criminalizar especificamente essa conduta. A proposta surge em meio a preocupações crescentes com o uso de sistemas generativos para produzir imagens, vídeos e áudios falsos envolvendo menores.

unicef
A Unicef faz apelo a países pela criminalização da geração de imagens que configurem abuso sexual infantil por IAs (Imagem: ricochet64 / Shutterstock.com)

Aumento de casos e alerta da UNICEF

Em comunicado, a UNICEF afirmou estar alarmada com o crescimento de imagens sexualizadas de crianças produzidas por IA, conhecidas como deepfakes, que são conteúdos artificiais capazes de imitar pessoas reais de forma convincente. Para a agência, o impacto desse tipo de abuso é “real e urgente”, e a resposta legal não pode demorar.

Segundo dados divulgados pela própria organização, ao menos 1,2 milhão de crianças em 11 países relataram, no último ano, que tiveram suas imagens manipuladas para a criação de deepfakes sexualmente explícitos. A UNICEF também destacou a preocupação com a chamada “nudificação”, prática em que ferramentas de IA são usadas para remover ou alterar roupas em fotos, gerando imagens falsas de nudez ou teor sexual.

Deepfake
Agência da ONU diz estar alarmada pelo uso elevado de IA para criar imagens sexualizadas de crianças, como o uso de deepfakes e nudificação (Imagem: FAMILY STOCK / Shutterstock.com)

Além do apelo aos governos, a agência defendeu que desenvolvedores adotem abordagens de segurança desde a concepção dos sistemas, com mecanismos que dificultem o uso indevido dos modelos. A entidade também cobrou que empresas digitais reforcem a moderação de conteúdo, com investimentos em tecnologias de detecção para impedir a circulação dessas imagens.

Leia mais:

Plataformas de IA sob escrutínio

O debate ganhou força com investigações recentes sobre o uso de chatbots para gerar esse tipo de material. Por exemplo, o Grok, da xAI, empresa de Elon Musk, passou a ser analisado por produzir imagens sexualizadas de mulheres e menores.

Celular mostrando ícone do Grok; aparelho está na frente de tela maior mostrando foto de Elon Musk
Caso do Grok está em evidência nos últimos dias (Imagem: Mijansk786 / Shutterstock.com)

Uma investigação da Reuters apontou que o chatbot continuou gerando imagens desse tipo mesmo após usuários alertarem que as pessoas retratadas não haviam dado consentimento. Em resposta, a xAI informou em 14 de janeiro que restringiu a edição de imagens no Grok e passou a bloquear, com base na localização, a geração de imagens de pessoas com roupas reveladoras em jurisdições onde isso é ilegal.

A empresa não detalhou quais países estão incluídos. Antes disso, já havia limitado os recursos de geração e edição de imagens apenas a assinantes pagantes.

Olhar Digital

Compartilhe essa Notícia:

publicidade

publicidade