Pesquisadores ligados ao laboratório DeepMind, que pertence ao mesmo grupo da Google, publicaram um artigo científico sobre potenciais danos da inteligência artificial (IA). Segundo o texto, há evidências de que esse tipo de conteúdo prejudica a navegação.
O artigo “Uso indevido de IA generativa: uma taxonomia de táticas e percepções de dados do mundo real” avaliou 200 táticas de utilização nociva de IAs generativas catalogadas entre janeiro de 2023 e março de 2024. Ele ainda não faz parte de um periódico científico, já que ainda carece de revisão por outros cientistas.
O estudo reforça e traz evidências de uma percepção de muitos usuários: de que há uma quantidade cada vez maior de imagens e textos artificiais circulando pela internet. Isso é percebido inclusive nos resultados do buscador do Google e já faz parte da convivência nesse ambiente digital — o que traz algumas consequências bastante negativas.
Como a IA está piorando a internet
Segundo o artigo, é possível afirmar que esse tipo de uso maldoso da tecnologia “borra as fronteiras entre apresentações autênticas e enganatórias“. Isso é detectado já de forma considerável e “significativa”, mesmo que a maior parte do conteúdo de IAs generativas encontrado até agora não seja irregular.
Os casos mais comuns encontrados envolvem manipulação da atividade humana, falsificação de evidências e uso em fraudes ou outras formas de cibercrimes.
Textos nocivos por IA são os conteúdos mais comuns por enquanto.Fonte: GettyImages
Eles são normalmente explorados para “ganhos reputacionais ou financeiros” e por enquanto são na maioria baseados apenas em textos, pois outras ferramentas visuais ainda estão em fases mais recentes de disponibilização.
Além disso, esse tipo de uso da IA generativa pode trazer consequências de larga escala em termos de “confiança, autenticidade e integridade de ecossistemas de informação” — ou seja, prejudicar ambientes de circulação de conteúdos, como redes sociais e até buscadores como o próprio Google.
Como prováveis soluções, os pesquisadores sugerem uma “abordagem multifacetada” que inclui colaborações entre governo, especialistas da indústria, cientistas e a sociedade.
Além disso, é necessário não só avanços técnicos, mas também “uma compreensão mais profunda dos fatores sociais e psicológicos” que envolvem a criação desses conteúdos falsos. O artigo completo pode ser lido neste link (em inglês).