CEO da OpenAI alerta:ChatGPT não oferece sigilo em conversas terapêuticas - IpecAgora
Compartilhe:

Cresce o uso de IA para terapia no Brasil, mas especialistas alertam para riscos e falta de sigilo
Mais de 6 milhões de brasileiros utilizam o ChatGPT como apoio emocional, apesar da ausência de proteção legal para informações sensíveis

O uso de inteligência artificial como apoio terapêutico tem se popularizado no Brasil. De acordo com dados recentes, mais de 12 milhões de brasileiros utilizam ferramentas de IA com finalidade terapêutica, sendo 6 milhões deles usuários do ChatGPT para conversas de apoio emocional. A principal motivação para essa procura é a disponibilidade imediata e o aparente anonimato que essas tecnologias oferecem.

No entanto, esse tipo de interação não possui respaldo legal quanto ao sigilo das informações compartilhadas, conforme alertou recentemente Sam Altman, CEO da OpenAI, empresa responsável pelo ChatGPT. De acordo com Altman, as conversas feitas com a IA não contam com o mesmo tipo de proteção garantida a atendimentos médicos ou psicológicos tradicionais, o que significa que os registros podem ser solicitados pela Justiça em determinados contextos.

A ausência de regulação específica sobre o uso terapêutico de IAs também preocupa juristas e pesquisadores. Sem legislação clara, não há garantias de como os dados dos usuários são armazenados, utilizados ou protegidos.

Enquanto o avanço da tecnologia continua a transformar o campo da saúde mental, o alerta é claro: a inteligência artificial pode ser uma ferramenta complementar, mas não substitui a escuta humana, ética e profissional que a psicologia oferece.

Deixe seu comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Noticias recomendadas