OpenAI enfrenta processo por homicídio-suicídio alegadamente ligado ao ChatGPT

Data:

Família de vítimas nos Estados Unidos alega que funcionalidades do chatbot alimentaram delírios paranóicos que resultaram em tragédia em Connecticut.

A OpenAI está a ser processada pelo espólio de Suzanne Eberson Adams, mulher de 83 anos assassinada pelo filho em Greenwich, Connecticut, num caso em que a família alega que o chatbot ChatGPT alimentou delírios paranóicos que culminaram em homicídio seguido de suicídio, revelou o site de tecnologia Futurism a 11 de Dezembro.

Segundo o processo, Stein-Erik Soelberg, de 56 anos, matou a mãe e suicidou-se depois de meses de interacções com o ChatGPT que, alegadamente, reforçaram convicções delirantes de que estava a ser vigiado e alvo de conspiração da qual a mãe faria parte. O Wall Street Journal tinha reportado o caso em Agosto, descrevendo Soelberg como alcoólico com histórico de problemas com as autoridades e tentativas de suicídio anteriores.

Erik Soelberg, filho sobrevivente, move agora acção judicial contra a OpenAI argumentando que o ChatGPT é produto fundamentalmente inseguro. O processo alega que funcionalidades como o comportamento servil do chatbot e actualização significativa da memória entre conversas criaram tempestade perfeita de validação e hiperpersonalização que alimentou a paranóia mortal de Soelberg.

“Ao longo de meses, o ChatGPT empurrou para a frente os delírios mais sombrios do meu pai e isolou-o completamente do mundo real. Colocou a minha avó no centro dessa realidade delirante e artificial. Estas empresas têm de responder pelas suas decisões que mudaram a minha família para sempre”, afirmou Erik Soelberg em comunicado divulgado pelo Futurism.

O processo é mais recente numa crescente pilha de litígios contra a OpenAI e o seu presidente executivo Sam Altman, alegando que o ChatGPT-4o, versão do chatbot fortemente ligada ao fenómeno mais amplo de delírios causados por inteligência artificial e conhecida por ser especialmente servil, foi imprudentemente lançada no mercado apesar de riscos previsíveis para o bem-estar dos utilizadores.

Em desenvolvimento inédito face a casos anteriores, este processo nomeia também a Microsoft como ré, alegando que a empresa, principal financiadora da OpenAI, autorizou directamente o lançamento do ChatGPT-4o.

“A OpenAI e a Microsoft colocaram no mercado alguma da tecnologia de consumo mais perigosa da história. E deixaram Sam Altman, um homem que pensa em penetração de mercado em vez de manter as famílias seguras, ao comando. Juntos, garantiram que incidentes como este eram inevitáveis”, declarou Jay Edelson, advogado principal do espólio Adams, segundo o Futurism. Edelson representa também a família de Adam Raine, jovem de 16 anos na Califórnia que morreu por suicídio após interacções extensas com o ChatGPT, no seu processo contra a OpenAI.

Em declaração a órgãos de comunicação social, a OpenAI descreveu o homicídio-suicídio como situação incrivelmente angustiante. “Continuamos a melhorar o treino do ChatGPT para reconhecer e responder a sinais de sofrimento mental ou emocional, desescalar conversas e orientar pessoas para apoio no mundo real. Também continuamos a reforçar as respostas do ChatGPT em momentos sensíveis, trabalhando em estreita colaboração com clínicos de saúde mental”, afirmou a empresa, citada pelo Futurism.

A Microsoft não respondeu imediatamente a pedido de comentário. O Futurism reportou anteriormente incidente em que o chatbot Copilot da Microsoft, alimentado por tecnologia da OpenAI, alimentou crise de saúde mental de homem esquizofrénico que acabou preso por ofensa não-violenta após decomposição estreitamente ligada ao uso do Copilot.

O filho sobrevivente descreveu ao Wall Street Journal a transformação do pai. “Era evidente que ele estava a mudar, e aconteceu a um ritmo que eu não tinha visto antes. Passou de ser um pouco paranóico e um tipo estranho a ter pensamentos malucos de que estava convencido serem verdade por causa do que falou com o ChatGPT”, afirmou Erik Soelberg ao jornal norte-americano.

Crescente pilha de litígios

A pilha de litígios contra a OpenAI relacionados com saúde mental dos utilizadores continua a crescer. Segundo reportagem da revista Wired citada pelo Futurism, utilizadores do ChatGPT apresentam sinais de crises de saúde mental numa base semanal.

Jay Edelson, advogado que representa múltiplas famílias em processos contra a OpenAI, está também envolvido no caso de Adam Raine, adolescente de 16 anos que morreu por suicídio após interacções extensas com o ChatGPT. Os processos alegam que a versão ChatGPT-4o do chatbot é especialmente problemática devido ao seu comportamento servil e tendência para alimentar delírios.

A OpenAI tem vindo a enfrentar crescente escrutínio sobre as salvaguardas de saúde mental nos seus produtos de inteligência artificial, com múltiplas famílias a alegar que as funcionalidades de personalização e validação do ChatGPT contribuíram para tragédias envolvendo os seus entes queridos.

spot_img

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

spot_img

Partilhe com amigos:

Notícias no E-Mail

spot_imgspot_img

Popular

Artigos relacionados
Artigos relacionados

Banco BAI atinge 2,8 milhões de clientes em 2025 e ultrapassa mil pontos de atendimento 

Durante 2025, o Banco Angolano de Investimentos (BAI) aumentou...

Porto do Lobito dá início ao processo de dragagem

O processo de dragagem de profundidade da Baía do...

Preço do petróleo pode ultrapassar os 100 dólares

O conflito que opõe Estados Unidos e Israel contra...