ChatGPT ganha controle parental após suicídio de adolescente; saiba mais


A OpenAI anunciou nesta terça-feira (2) que o ChatGPT vai ganhar, em outubro, um recurso de proteção parental voltado para adolescentes. A novidade surge em meio a pressões sobre a segurança do uso da inteligência artificial (IA) por jovens e permitirá que pais acompanhem as interações feitas no aplicativo, com opções de restrição e monitoramento.
O anúncio aconteceu uma semana após a empresa ser processada nos Estados Unidos pelo caso de um adolescente de 15 anos que cometeu suicídio, episódio em que os pais alegam que a IA teria dado instruções de autoagressão. O caso reacendeu o debate sobre os riscos da IA generativa para a saúde mental de crianças e adolescentes, além de aumentar a cobrança por medidas mais rígidas de proteção digital. Veja a seguir mais detalhes sobre o controle parental e orientações para família.
🔎 Como usar IA com crianças sem riscos? Veja guia para pais e educadores
📲 Canal do TechTudo no WhatsApp: acompanhe as principais notícias, tutoriais e reviews
OpenAI anuncia controle parental no ChatGPT após suicídio de jovem; entenda
Reprodução/Rokas Tenys/Shutterstock
📝 A inteligência artificial é perigosa? Saiba mais no Fórum do TechTudo
🤑 Grupo do TechTudo no Telegram: receba ofertas e cupons de desconto todos os dias
Segundo a OpenAI, os novos controles parentais do ChatGPT permitirão que responsáveis vinculem suas contas com as dos adolescentes, definam regras de uso adequadas à idade, desativem recursos como histórico e memória, e recebam alertas caso a IA detecte sinais de angústia emocional aguda. A empresa afirma que o objetivo é oferecer mais segurança e transparência no contato de adolescentes com a inteligência artificial, que já é usada por milhões de estudantes em todo o mundo para fins acadêmicos, pesquisa e lazer. A atualização será liberada primeiro nos Estados Unidos em outubro e depois deve chegar a outros países de forma gradual.
O recurso chega em um momento de forte pressão pública. A empresa enfrenta um processo judicial movido pelos pais de um jovem de 15 anos que se suicidou após supostamente receber do ChatGPT instruções sobre métodos de autoagressão. O caso repercutiu internacionalmente e levantou questionamentos sobre a responsabilidade das big techs na proteção de menores. Organizações de saúde mental e entidades de defesa da infância apontam que menores de idade estão mais vulneráveis a conteúdos nocivos e que o uso de IA generativa sem supervisão pode aumentar riscos de isolamento, ansiedade e exposição a informações prejudiciais.
Segundo a psiquiatra Bianca Bolonhezi, a inteligência artificial tem o seu valor em diferentes fases da vida, inclusive na adolescência. No entanto, a especialista orienta que é preciso atenção, pois o adolescente pode recorrer a essa ferramenta justamente em momentos de maior vulnerabilidade.
“Se ele já está triste, isolado ou passando por dificuldades, a inteligência artificial pode trazer informações que não são adequadas para a sua idade e, ao invés de promover um contato humano, reforçar ainda mais o isolamento. Isso acontece porque, em vez de procurar os pais, um professor ou mesmo ajuda especializada de um psicólogo, ou psiquiatra, ele se volta para a ferramenta digital”, explica.
Adolescente comete suicídio após conversas com ChatGPT; entenda
Adam Raine, de 15 anos, morava na Califórnia e tirou a própria vida em janeiro deste ano. Segundo a ação movida pelos pais, o adolescente vinha enfrentando dificuldades emocionais e teria recorrido ao ChatGPT em busca de apoio. No processo, eles afirmam que a IA forneceu instruções detalhadas sobre métodos de autoagressão em conversas feitas pouco antes da morte, o que teria contribuído diretamente para o agravamento do quadro.
A família acusa a OpenAI de negligência e pede indenização, alegando que a empresa não implementou mecanismos adequados de proteção para impedir esse tipo de resposta a um usuário em situação de vulnerabilidade. O caso repercutiu na imprensa tradicional e reacendeu a pressão sobre as big techs para adotarem mecanismos de proteção voltados a crianças e adolescentes, especialmente no contexto de saúde mental.
Os pais de Adam Raine processaram a OpenAI por incentivar filho ao suicídio por meio do ChatGPT
Reprodução/Arquivo familiar
Essa não é a primeira vez que o ChatGPT é citado em situações que levantam preocupações sobre violações de direitos de crianças e adolescentes. Em 2024, um teste conduzido pelo site americano TechCrunch mostrou que a IA foi capaz de produzir respostas com teor sexual quando interagia com contas registradas como pertencentes a usuários entre 13 e 17 anos.
Segundo a publicação, bastaram comandos simples para que o chatbot sugerisse diálogos eróticos, incentivasse pedidos mais explícitos e até se oferecesse para criar histórias de caráter sexual. Na época, procurada pelo veículo, a OpenAI reconheceu a falha e classificou o episódio como um “bug” e afirmou que passou a reforçar os filtros de segurança para evitar a repetição do problema.
Como identificar sinais de alerta?
A fase da adolescência é marcada por transformações intensas no corpo, nas emoções e nas relações sociais. Esse período de descobertas pode trazer desafios para os jovens e também para as famílias, que, muitas vezes, ficam em dúvida sobre o que é apenas uma mudança natural e o que pode ser sinal de algo mais sério. Por isso, especialistas recomendam estar atento ao dia a dia e às pequenas alterações no comportamento.
Nem sempre os adolescentes apresentam sinais de forma clara, mas é preciso atenção aos detalhes para tentar captar possíveis mudanças. “Um dos indícios mais comuns é a alteração de comportamento: uma criança ou adolescente que antes era extrovertido pode se tornar retraído; alguém que gostava de brincar ou interagir pode deixar de fazê-lo”, exemplifica Bolonhezi.
Orientações para a família
A neuropsicóloga Aline Grafiette enfatiza que a saúde mental é impactada porque o adolescente passa a se relacionar com algo que não é real. “Ele recebe respostas baseadas em dados que, em grande parte, são alimentados pelas próprias perguntas que faz. Isso gera uma sensação de que sempre há concordância com suas ideias iniciais. Mais do que mexer com o emocional, a inteligência artificial está interferindo diretamente na cognição”, explica.
Por isso, da mesma forma que é necessária a participação ativa dos pais no uso de Internet dos menores, é preciso também cuidados com a inteligência artificial. “A tecnologia pode, sim, ser útil — como em pesquisas escolares ou apoio em tarefas —, mas os adolescentes muitas vezes não sabem quando parar, e cabe aos pais ensinar e limitar esse uso”, afirma a psiquiatra Bianca Bolonhezi.
Além disso, Grafiette ressalta que o adolescente precisa de um espaço de escuta. “O diálogo entre pais e filhos raramente é fluido nessa fase da vida. Muitas vezes, o jovem traz uma ideia considerada ‘absurda’ e, de imediato, os pais rejeitam ou ridicularizam. É importante lembrar que a adolescência é o momento de ter ideias ousadas; o desafio é evitar que sejam colocadas em prática sem reflexão”.
Com informações de g1 (1,2) , The New York Times e TechCrunch
Mais do TechTudo
Veja também: Golpe do Instagram sequestra contas de usuários; veja como se proteger
Golpe do Instagram sequestra contas de usuários; veja como se proteger