A empresa OpenAI interrompeu cinco operações secretas que usavam os seus modelos de inteligência artificial (IA) para “atividades enganosas” na internet, ligadas a agentes de ameaças da Rússia, China, Irão e Israel.
A empresa tecnológica disse, num comunicado divulgado hoje, que “nos últimos três meses, o seu trabalho contra actos enganosos e abusivos permitiu interromper operações de influência secreta que procuravam usar modelos de IA em apoio à sua atividade através da Internet”.
Estas operações incluíam campanhas ligadas a operadores na Rússia (duas redes), China, Irão e uma empresa comercial em Israel na “tentativa de manipular a opinião pública ou influenciar os resultados políticos”, referiu a OpenAI.
Essas campanhas, detalhou, visavam questões como a invasão da Ucrânia pela Rússia, a intervenção militar israelita na Faixa de Gaza, as eleições na Índia, a política na Europa e nos Estados Unidos, entre outras.
As campanhas enganosas, afirma a empresa no comunicado, não conseguiram uma maior projeção ou alcance do público devido aos seus serviços.
O relatório da empresa de pesquisa e implantação de IA sediada em São Francisco mostra as preocupações de segurança sobre o uso indevido desta tecnologia, que pode produzir texto, imagens e áudio de forma rápida e fácil.
“Detetar e interromper abusos multiplataforma, como operações secretas de influência, pode ser um desafio, porque nem sempre sabemos como o conteúdo gerado pelos nossos produtos é distribuído”, admite a OpenAI, garantindo estar “dedicada a encontrar e mitigar esse abuso”.