O mais recente relatório da Internet Watch Foundation alerta que “imagens de abuso sexual infantil geradas por IA progrediram a um ritmo assustador”. O avanço da tecnologia permite que pedófilos adicionem “o rosto ou a imagem de outra pessoa a um vídeo real”, de forma quase perfeita, tornando os “deepfake altamente realistas”.
A capacidade de tornar qualquer cenário uma realidade visual está sendo usada pelos criminosos que se gabam, em um fórum da dark web, sobre a possibilidade de “criar qualquer pornografia infantil que desejarmos (…) em alta definição”, relata a Internet Watch Foundation (IWF), que identificou os “primeiros exemplos convincentes” de vídeos de IA retratando abuso sexual de crianças.
Publicado nesta segunda-feira (22), o mais recente relatório da organização IWF, que monitora a circulação mundial de Material de Abuso Sexual Infantil (CSAM, da sigla em inglês), deixa claro que estão “aumentando os vídeos feitos por IA à medida que as ferramentas de IA que estão por trás deles se tornam mais difundidas e fáceis de usar”.
Cada vez mais realistas, os vídeos deepfake, ou parcialmente manipulados por IA, apresentam rostos – umas vezes de vítimas, outras vezes de outra pessoa – próximos de clips reais, explicam os analistas.
Em 2023, quando a IWF identificou os primeiros conteúdos gerados por IA, a qualidade era mais básica, de acordo com os investigadores. Um ano depois, Dan Sexton, diretor de tecnologia da IWF, afirma que os vídeos futuros tendem a ter “maior qualidade e realismo”.
Ao serem identificados os primeiros vídeos totalmente sintéticos de abuso sexual infantil, a organização sublinha que “os infratores replicaram e partilharam modelos de IA com mais de 100 vítimas de abuso”. Os investigadores da IWF, ao analisarem um fórum da dark web dedicado a material de abuso sexual infantil, encontraram nove vídeos deepfake, que circulavam entre março e abril deste ano.
“Alguns dos vídeos deepfake apresentam pornografia adulta que é alterada para mostrar o rosto de uma criança. Outros são vídeos existentes de abuso sexual infantil que apresentam o rosto de outra criança sobreposto”, explica o relatório.
Como os vídeos originais de abuso sexual são de crianças reais, os analistas da IWF dizem que os deepfakes são especialmente convincentes.
Outro vídeo reportado e definido como “chocante” tem 18 segundos e é totalmente gerado por IA. Foi encontrado na clear web e “mostra um homem adulto a violar uma menina que aparenta ter cerca de dez anos. O vídeo pisca e falha”, mas os analistas da IWF descrevem a atividade como clara e contínua.
A CEO da Internet Watch Foundation, Susie Hargreaves OBE, acentua que “a tecnologia de IA generativa está evoluindo a um ritmo tão rápido que a capacidade dos infratores de produzirem, à vontade, vídeos gráficos mostrando o abuso sexual de crianças é bastante assustadora”.
“O fato de que alguns desses vídeos estão manipulando imagens de vítimas conhecidas é ainda mais assustador. Sobreviventes de alguns dos piores tipos de trauma agora não têm trégua, sabendo que os infratores podem usar imagens do seu sofrimento para criar qualquer cenário de abuso que desejarem”, alerta Susie.
“Sem controle adequado, as ferramentas de IA generativas fornecem um playground para predadores online realizarem suas fantasias mais perversas e repugnantes. Mesmo agora, a IWF começa a ver mais desse tipo de material sendo compartilhado e vendido em sites comerciais de abuso sexual infantil na internet”.
Agência Brasil