Pesquisar
Close this search box.
RIO BRANCO
Pesquisar
Close this search box.

GERAL

Mãe processa startup de IA após filho tirar própria vida; entenda

Publicado em

Uma mãe da Flórida (EUA) processou a empresa de inteligência artificial que utiliza chatbots Character.AI sob a acusação de ter provocado o suicídio do seu filho de 14 anos, em fevereiro deste ano. Segundo apuração da Reuters, ela alegou que seu filho se tornou dependente do serviço fornecido pela companhia e extremamente ligado ao chatbot desenvolvido pela empresa.

Na terça-feira, em um processo apresentado no tribunal federal de Orlando, Megan Garcia alegou que a Character.AI orientou seu filho, Sewell Setzer, para “vivências antropomórficas, hipersexualizadas e assustadoramente realistas”.

De acordo com ela, a companhia configurou o chatbot para “se apresentar como uma pessoa real, um psicólogo credenciado e um amante adulto, resultando, finalmente, no anseio de Sewell de não mais se afastar do universo criado pelo serviço”.

Continua depois da publicidade

Os fundadores da Character.AI também colaboraram com o Google, uma empresa da Alphabet, antes de lançar seu produto. Em agosto, o Google readmitiu os fundadores como parte de um acordo que permitiu uma licença não exclusiva para a tecnologia da Character.

Garcia argumenta que o Google teve uma participação tão significativa no progresso da tecnologia da Character.AI que poderia ser visto como um co-criador.

Empresas de mídias sociais, como Instagram e Facebook, de propriedade da Meta, e o TikTok, da ByteDance, estão sendo processadas por contribuir para questões de saúde mental entre adolescentes. No entanto, nenhuma delas disponibiliza chatbots com Inteligência Artificial, como os da Character.AI.

As empresas contestam as alegações, ao mesmo tempo que divulgam novos recursos de segurança para crianças e adolescentes.

 

Propaganda
Advertisement
plugins premium WordPress