Startup da Nova Zelândia usa detecção por IA e atendimento humano para criar um sistema para identificar extremismo, sinalizar risco e conectar usuários a ajuda imediata
Uma versão de teste do ChatGPT passou a incluir um sistema para identificar extremismo, com objetivo de encaminhar pessoas em situação de risco para redes de apoio.
A solução combina inteligência artificial com atendimento humano, para detectar sinais de crise durante conversas e oferecer caminhos concretos de ajuda.
O projeto em teste promete conectar usuários a uma rede global de serviços, segundo informações divulgadas pela equipe responsável, conforme informação divulgada pelo g1.
Como funciona o sistema para identificar extremismo
O mecanismo analisa interações com o chatbot para identificar conteúdos ou sinais que indiquem risco, violência ou radicalização, e, quando acionado, sugere encaminhamentos a operadores humanos.
A iniciativa, desenvolvida por uma startup da Nova Zelândia, combina algoritmos de detecção com uma base de dados internacional de apoio, com acesso a 1.600 serviços em 180 países, para oferecer orientações locais quando possível.
Por que a integração entre IA e humanos é considerada importante
Os idealizadores argumentam que apenas a IA pode não ser suficiente para garantir apoio efetivo, porque conversas encerradas pelo sistema podem deixar crises sem registro.
Na avaliação da equipe, “Se você conversar com uma IA, revelar a crise e ela encerrar a conversa, ninguém ficará sabendo do ocorrido, e essa pessoa poderá continuar sem apoio“, disse Taylor, destacando a importância do acompanhamento humano.
Impacto e desafios do projeto em teste
O projeto em teste busca reduzir lacunas no atendimento a pessoas em risco, facilitando a conexão com serviços locais e internacionais, mas ainda precisa ser avaliado quanto à precisão e à proteção de privacidade dos usuários.
Especialistas em tecnologia e ética apontam que qualquer sistema para identificar extremismo deve equilibrar eficácia na detecção com transparência, revisão humana e salvaguardas para evitar sinais falsos ou violações de direitos.
O que vem a seguir
A fase de testes vai ajudar a refinar os critérios de detecção, a integração com serviços de apoio e as rotinas de encaminhamento humano, antes de uma possível expansão.
Enquanto isso, a combinação entre IA e atendimento humano segue sendo apresentada como caminho para oferecer suporte mais rápido e localizado a quem demonstra risco em conversas com chatbots.
