Relatório da Internet Watch Foundation Destaca Rápido Avanço de Imagens de Abuso Infantil Geradas por IA

Relatório da Internet Watch Foundation Destaca Rápido Avanço de Imagens de Abuso Infantil Geradas por IA

Um relatório recente da Internet Watch Foundation revela que imagens de abuso sexual infantil geradas por inteligência artificial (IA) estão avançando em um ritmo alarmante. A tecnologia agora permite que pedófilos sobreponham o rosto ou a imagem de uma pessoa a um vídeo real de forma quase perfeita, resultando em deepfakes extremamente realistas. Criminosos se gabam em fóruns da dark web de poder criar “qualquer pornografia infantil que desejarem (…) em alta definição”, de acordo com a IWF, que identificou os primeiros exemplos convincentes de vídeos de IA retratando abuso sexual infantil. Publicado nesta segunda-feira (22), o relatório mais recente da organização, que monitora a circulação global de Material de Abuso Sexual Infantil (CSAM, na sigla em inglês), mostra um aumento nos vídeos feitos por IA à medida que essas ferramentas se tornam mais acessíveis e fáceis de usar.

Qualidade e Realismo

Os vídeos deepfake, ou parcialmente manipulados por IA, estão se tornando cada vez mais realistas, com rostos de vítimas ou outras pessoas se misturando quase perfeitamente a clipes reais, explicam os analistas. Em 2023, quando a IWF identificou os primeiros conteúdos gerados por IA, a qualidade era básica, segundo os investigadores. Um ano depois, Dan Sexton, diretor de tecnologia da IWF, afirma que os vídeos futuros tendem a ter “maior qualidade e realismo”. Ao identificarem os primeiros vídeos totalmente sintéticos de abuso sexual infantil, a organização sublinhou que “os infratores replicaram e partilharam modelos de IA com mais de 100 vítimas de abuso”.

Os investigadores da IWF encontraram, em um fórum da dark web dedicado a material de abuso sexual infantil, nove vídeos deepfake que circulavam entre março e abril deste ano. Alguns vídeos deepfake mostram pornografia adulta alterada para incluir o rosto de uma criança, enquanto outros são vídeos existentes de abuso sexual infantil com o rosto de outra criança sobreposto, explica o relatório. Como os vídeos originais de abuso sexual são de crianças reais, os deepfakes são especialmente convincentes. Outro vídeo reportado, descrito como “chocante”, tem 18 segundos e é totalmente gerado por IA. Foi encontrado na clear web e “mostra um homem adulto violando uma menina que aparenta ter cerca de dez anos. O vídeo pisca e falha”, mas os analistas da IWF descrevem a atividade como clara e contínua.

Perspectivas Preocupantes

Susie Hargreaves OBE, CEO da Internet Watch Foundation, destaca que “a tecnologia de IA generativa está evoluindo tão rapidamente que a capacidade dos infratores de produzir, à vontade, vídeos gráficos mostrando o abuso sexual de crianças é extremamente assustadora”. “O fato de que alguns desses vídeos estão manipulando imagens de vítimas conhecidas é ainda mais perturbador. Sobreviventes de alguns dos piores tipos de trauma agora não têm trégua, sabendo que os infratores podem usar imagens de seu sofrimento para criar qualquer cenário de abuso que desejarem”, alerta Susie. “Sem um controle adequado, as ferramentas de IA generativas fornecem um playground para predadores online realizarem suas fantasias mais perversas e repugnantes. Mesmo agora, a IWF começa a ver mais desse tipo de material sendo compartilhado e vendido em sites comerciais de abuso sexual infantil na internet”.

Reescrito com base na matéria da EBC

Link: https://agenciabrasil.ebc.com.br/internacional/noticia/2024-07/ia-aumenta-circulacao-de-videos-fakes-com-abuso-sexual-de-criancas