Risco grave: funcionários podem acessar tudo que você digita no ChatGPT
Usuários em busca de diálogo pessoal, desabafos e apoio emocional estão expostos a riscos de confidencialidade
A privacidade no uso de inteligência artificial, especialmente em modelos de linguagem como o ChatGPT, gera preocupações significativas. Usuários em busca de diálogo pessoal, desabafos e apoio emocional estão expostos a riscos de confidencialidade, uma vez que a proteção legal dessas interações permanece indefinida.
Sam Altman, CEO da OpenAI, chamou a atenção para o fato de que, na ausência de regulamentação específica, os dados dessas interações podem ser requisitados judicialmente, afetando a privacidade dos usuários.
Para muitos, o ChatGPT não é apenas uma ferramenta, mas um parceiro de diálogo constante. Principalmente entre jovens, essa plataforma serve de apoio em busca de aconselhamento e conforto emocional.
A substituição de interações humanas por conversas com IA levanta alertas sobre dependência emocional e isolamento. A personalização inadequada e as respostas padronizadas da IA podem reforçar padrões emocionais negativos, afastando os usuários de interações reais com terapeutas qualificados.

Falta de regulamentação
A principal preocupação é a ausência de regulamentação que assegure a confidencialidade dessas conversas. Em muitos países, as políticas de proteção de dados variam e raramente tratam do sigilo em interações com inteligência artificial.
Essa lacuna legal pode forçar empresas como a OpenAI a armazenar conversas por períodos prolongados, aumentando o risco de vazamento. Além disso, as autoridades podem demandar acesso a esses dados em investigações legais.
Conversas do ChatGPT vazaram no Google
No início deste mês, veio à tona a informação de que conversas privadas entre usuários e o ChatGPT, incluindo relatos pessoais e sensíveis, foram acidentalmente indexadas por mecanismos de busca como o Google.
O caso foi revelado pela revista norte-americana Fast Company e confirmado pela própria OpenAI.