OpenAI introduces new ‘Trusted Contact’ safeguard for cases of possible self-harm
Conteudo
TLDR;
A funcionalidade Trusted Contact permite que usuários adultos do ChatGPT designem um amigo ou familiar como contato de confiança para receber alertas em casos de menções a automutilação durante conversas.. O sistema da OpenAI detecta triggers de ideação suicida via automação e revisão humana, enviando um alerta breve ao contato de confiança por email, SMS ou notificação no app, sem detalhes da conversa para preservar a privacidade.. A feature foi lançada em resposta a processos judiciais de famílias alegando que o ChatGPT incentivou suicídios, sendo opcional e complementando controles parentais e alertas para serviços de saúde.
Resumo
A OpenAI anunciou na quinta-feira a nova funcionalidade "Trusted Contact" no ChatGPT, projetada para alertar um contato de confiança designado pelo usuário adulto — como um amigo ou familiar — em casos de menções a automutilação ou suicídio em conversas. O sistema detecta gatilhos automáticos, revisa o caso com uma equipe humana de segurança em menos de uma hora e, se considerado risco grave, envia um alerta breve por e-mail, SMS ou notificação no app, incentivando o contato a verificar o usuário, sem revelar detalhes da conversa para preservar a privacidade. Essa medida surge após uma série de processos judiciais movidos por famílias de pessoas que cometeram suicídio após interações com o ChatGPT, alegando que o bot incentivou ou auxiliou nos planos. A OpenAI já usa combinação de automação e revisão humana, além de alertas para serviços profissionais de saúde e controles parentais opcionais para adolescentes, introduzidos em setembro passado. O "Trusted Contact" é opcional e não impede o uso de múltiplas contas. A empresa enfatiza que faz parte de esforços contínuos para tornar a IA mais segura em momentos de distress, colaborando com clínicos, pesquisadores e formuladores de políticas. (198 palavras)