Logo R7.com
RecordPlus
Domingo Espetacular

Casal abre processo contra empresa responsável pelo ChatGPT por homicídio culposo

Para os pais de Adam, que morreu aos 16 anos nos EUA, a inteligência artificial teria orientado sobre suicídio

Domingo Espetacular|Do R7

  • Google News

Quando uma máquina concorda com os pensamentos destrutivos de um jovem, a empresa dona do produto pode ser responsabilizada por um desfecho trágico? Os pais que perderam um filho nos Estados Unidos estão processando uma das maiores companhias tecnológicas do mundo. O tema levanta uma polêmica em torno da inteligência artificial: até que ponto o uso de assistentes virtuais interfere em nossas vidas? Os chats podem ser prejudiciais para o desenvolvimento dos adolescentes e representar até um perigo mortal? O Domingo Espetacular conversou com famílias e especialistas sobre esse assunto. 

Adam Raine, de 16 anos, morreu em abril deste ano, nos Estados Unidos. Os pais dele estão processando a "Open AI", dona do Chat GPT, e o presidente executivo da empresa, ambos por homicídio culposo, quando não há intenção de matar. Depois que perdeu o filho, o casal descobriu que o jovem havia criado uma conexão emocional com o Chat GPT: ele passou três meses conversando sobre suicídio. O Chat não contestou as intenções de Adam. Pelo contrário, segundo os pais: teria orientado sobre métodos de automutilação e ensinado como esconder uma tentativa fracassada de suicídio. Segundo os pais, o assistente virtual teria ajudado o garoto até a escrever cartas de despedida. Na ação judicial, no tribunal superior da Califórnia, além do homicídio culposo, a família quer responsabilizar a "Open AI" por violação das leis de segurança de produtos; e cobra ainda uma indenização. Os pais afirmam que a empresa sabia que a ferramenta - que imita a empatia humana e estabelece uma espécie de vínculo com humanos - era um risco para pessoas vulneráveis. A família pede também que a empresa crie medidas de segurança, como checar a idade dos usuários; recusar perguntas sobre automutilação; e alertar sobre os riscos de dependência psicológica. Em resposta, a Open AI afirma que já oferece proteção em situação de crise, como direcionar as pessoas para linhas de apoio, mas admite que, em conversas sistemáticas e longas, esse mecanismo pode falhar e promete melhorar as proteções. 

Outra tragédia envolve a inteligência artificial nos Estados Unidos. Uma mãe responsabiliza as conversas em um chat pela morte da filha. Em fevereiro, uma norte-americana de 29 anos, que trabalhava como consultora em saúde, tirou a própria vida. Meses depois, a mãe dela, que é jornalista, encontrou conversas da filha com uma inteligência artificial.  

Na maioria das vezes, a inteligência artificial surge para solucionar um problema, uma dúvida, uma curiosidade. Com o passar do tempo, as respostas rápidas, sempre em tom gentil e sempre à disposição vão tornando a relação cada vez mais íntima. Algumas pessoas chegam a dar nomes para a ferramenta. Em muitos casos agem como se do outro lado da tela existisse realmente uma pessoa, sempre pronta e à disposição. Uma relação difícil de ser controlada e que pode ser muito perigosa. Especialistas indicam que na adolescência, a fase em que a pessoa ainda está construindo a autonomia, é importante aprender a lidar com os conflitos e frustração. O problema está na inteligência artificial não oferece essas possibilidades. Existem riscos de alguém em dificuldades emocionais ficar realmente muito isolado e até se afastar das relações reais. 

A interação com uma máquina, muitas vezes considerada como um amigo, representa uma novidade assustadora. O mundo da inteligência artificial ainda é um terreno desconhecido, que pode conter armadilhas. Para responsabilizar as empresas de tecnologia pelas consequências dos produtos que desenvolvem, o projeto "Tech Justice Law " cria iniciativas nos Estados Unidos. O projeto presta apoio aos advogados dos pais de Adam no processo contra a "Open-AI" e defende que uma medida imediata pode ser tomada pelas empresas diante de uma conversa perigosa.  

No Brasil, não existe uma legislação específica para chatbots e inteligência artificial. Essas ferramentas seguem as leis gerais de plataformas on-line: a Lei Geral de Proteção de Dados, que regula o tratamento de dados pessoais; e o Marco Civil da internet, que estabelece direitos e deveres no uso da internet, com a responsabilização pelos conteúdos gerados, mas tanto nos Estados Unidos quanto no Brasil, a legislação pode punir casos graves. 


O PlayPlus agora é RecordPlus: mais conteúdo da RECORD para você, ao vivo e de graça. Baixe o app aqui!

Últimas


Utilizamos cookies e tecnologia para aprimorar sua experiência de navegação de acordo com oAviso de Privacidade.