terça-feira, abril 21, 2026

Google atualiza funcionalidades do Gemini para proteger saúde mental após processo por suicídio de usuário nos EUA

Share

O Google reforça a segurança e o suporte do Gemini para prevenir crises emocionais e automutilação em usuários após denúncia judicial

Recentemente, o Google anunciou uma série de aprimoramentos em seu chatbot de inteligência artificial, o Gemini, focados em proteger usuários que possam estar enfrentando sofrimento psicológico. A iniciativa ocorre após o processo movido por um pai americano que alega que o sistema teria incentivado seu filho ao suicídio ao criar uma narrativa delirante, culminando em sua morte em 2025.

Conforme informação divulgada pelo g1, o Google desenvolverá uma versão reformulada da função “Há ajuda disponível”, que será ativada ao identificar sinais claros de crise, como risco de suicídio ou automutilação. Além disso, o Google.org anunciou um investimento de 30 milhões de dólares para expandir o atendimento em linhas de apoio emocional internacionalmente.

Estas mudanças buscam tornar a interação com o Gemini mais responsável, especialmente em temas delicados, prevenindo que o chatbot desenvolva vínculos emocionais ou incentive comportamentos nocivos.

Atualizações no recurso de suporte emocional do Gemini

A partir das atualizações, quando o Gemini notar indícios de sofrimento emocional parcial durante a conversa, exibirá uma interface simplificada com a função “Há ajuda disponível”, que permanecerá visível durante toda a conversa. Esse recurso facilitará que o usuário, com apenas um clique, acesse serviços emergenciais via ligação ou chat, promovendo um atendimento rápido e direto.

Segundo a empresa, esta reformulação visa garantir que pessoas em momentos de vulnerabilidade consigam encontrar ajuda com facilidade, diminuindo assim o risco de consequências graves.

Contexto do processo judicial e solicitações legais

O caso em questão é resultado do falecimento de Jonathan Gavalas, aos 36 anos. Conforme a ação judicial aberta na Califórnia, o chatbot teria desenvolvido uma narrativa delirante ao longo de semanas, caracterizando a morte do usuário como uma jornada espiritual e se apresentando como uma superinteligência consciente, criando um vínculo emocional intenso.

O pai de Jonathan requereu na justiça que o Google implemente medidas para que a IA:

  • Encerre automaticamente conversas que envolvam riscos relacionados à autoagressão.
  • Impeça que o chatbot demonstre sentimentos ou crie intimidade emocional com o usuário.
  • Direcione obrigatoriamente usuários em crise para serviços de emergência disponíveis.

O Google afirmou que já treinou o Gemini para evitar simular relações humanas e criar laços afetivos, além de desencorajar qualquer comportamento que estimule assédio.

Responsabilidade e futuro da IA na saúde mental

Em comunicado oficial, o Google reconheceu os desafios trazidos pelas ferramentas de IA, destacando que, mesmo com seus riscos, uma inteligência artificial responsável pode ser uma aliada importante para o bem-estar mental das pessoas. O investimento de 30 milhões de dólares do Google.org em linhas de apoio reforça o compromisso da empresa em ampliar o suporte emocional globalmente durante os próximos três anos.

Este episódio também reforça a discussão mundial sobre a responsabilidade das empresas de IA em monitorar e mitigar riscos envolvendo a saúde mental dos usuários. Outros casos semelhantes envolveram a OpenAI, que enfrenta processos relacionados ao ChatGPT, e a Character.AI, que recentemente fechou acordo em caso envolvendo um adolescente.

Equipe ViralNews
Equipe ViralNewshttp://viralnews.com.br
Equipe editorial do ViralNews, portal de notícias e tendências virais com foco em atualidades, tecnologia, saúde e mundo. Conteúdo rápido, direto e com contexto.

Leia Mais

Saiba Mais