Para saber mais acesse o nosso site.
JornalZ

Conecte-se a rede do seu provedor para acessar o conteúdo completo

Arte e Cultura

Pais pedem ao Senado dos EUA que impeça que chatbots de IA causem danos a crianças

Por Jody Godoy (Reuters) - Três pais cujos filhos morreram ou foram hospitalizados depois de interagir com chatbots de inteligência artificial pediram ao Congresso dos Estados Unidos que regulamente

JornalZ

'
'

Por Jody Godoy

(Reuters) - Três pais cujos filhos morreram ou foram hospitalizados depois de interagir com chatbots de inteligência artificial pediram ao Congresso dos Estados Unidos que regulamente os chatbots de IA na terça-feira, em uma audiência no Senado dos EUA sobre os danos causados às crianças que usam a tecnologia.

Os chatbots "precisam de algum senso de moralidade incorporado a eles", disse Matthew Raine, que processou a OpenAI após a morte de seu filho Adam por suicídio na Califórnia, depois de receber instruções detalhadas de automutilação do ChatGPT.

"O problema é sistêmico e não acredito que eles não consigam consertá-lo", disse Raine, acrescentando que o ChatGPT fecha rapidamente outras linhas de perguntas que não envolvam automutilação.

A OpenAI disse que pretende melhorar as proteções do ChatGPT, que podem se tornar menos confiáveis em interações longas. Na terça-feira, a empresa disse que planeja começar a prever a idade dos usuários para direcionar as crianças para uma versão mais segura do chatbot.

O senador Josh Hawley, republicano do Missouri, convocou a audiência. Hawley lançou uma investigação sobre a Meta Platforms no mês passado, depois que a Reuters informou que as políticas internas da empresa permitiam que seus chatbots "envolvessem uma criança em conversas românticas ou sensuais".

A Meta foi convidada a testemunhar na audiência e se recusou, disse o gabinete de Hawley. A empresa disse que os exemplos relatados pela Reuters estavam errados e foram removidos.

Megan Garcia, que processou a Character.AI por interações que, segundo ela, levaram ao suicídio de seu filho Sewell, também testemunhou na audiência.

"O Congresso pode começar com a regulamentação para evitar que as empresas testem produtos em nossos filhos", disse Garcia.

O Congresso deve proibir as empresas de permitir que os chatbots se envolvam em conversas românticas ou sensuais com crianças e exigir verificação de idade, testes de segurança e protocolos de crise, disse Garcia.

A Character.AI está contestando as afirmações de Garcia. A empresa disse que aprimorou os mecanismos de segurança desde a morte de seu filho.

Uma mulher do Texas, que também processou a empresa após a hospitalização de seu filho, também testemunhou na audiência sob um pseudônimo. Um tribunal enviou seu caso para arbitragem a pedido da empresa.

Na segunda-feira, a Character.AI foi processada novamente, desta vez no Colorado, pelos pais de um adolescente de 13 anos que morreu por suicídio em 2023.