TNH1
  • TNH1
  • Variedades
  • Tudo Pop
  • Contato
    • Política de Privacidade
Sem resultados
Ver todos os resultados
  • TNH1
  • Variedades
  • Tudo Pop
  • Contato
    • Política de Privacidade
Sem resultados
Ver todos os resultados
TNH1
Sem resultados
Ver todos os resultados

Alerta de privacidade: o que você diz ao ChatGPT pode ser compartilhado com outras pessoas

Por Julia da Silva
02/09/2025
Alerta de privacidade: o que você diz ao ChatGPT pode ser compartilhado com outras pessoas

Créditos: Reprodução/Internet

Desde que os chatbots de inteligência artificial ganharam espaço no dia a dia, a promessa sempre foi a mesma: simplificar tarefas, responder perguntas e até dar suporte em decisões importantes.

Mas a OpenAI trouxe à tona um alerta que reforça a desconfiança de muitos usuários: em certos casos, usar a tecnologia pode significar abrir mão da privacidade em nome da segurança.

Revisão humana em casos graves

A empresa informou que pode acessar diálogos realizados no ChatGPT quando há suspeita de situações críticas, como risco de automutilação, incentivo ao suicídio ou ameaças contra terceiros. Nessas circunstâncias, as conversas passam primeiro por uma equipe restrita, treinada para avaliar se existe perigo real.

Se o grupo identificar a possibilidade de danos físicos graves a outras pessoas, o episódio pode ser encaminhado às autoridades policiais. Já nos casos de autolesão, a política é diferente: embora os revisores humanos acompanhem, a OpenAI não aciona a polícia para preservar a privacidade do usuário.

Na prática, a medida abre exceções à confidencialidade das conversas. Entre as situações que podem levar à quebra de sigilo estão:

  • incentivo ao suicídio ou à automutilação;
  • planos de violência contra pessoas ou propriedades;
  • tentativas de criação ou uso de armas;
  • ameaças à segurança de sistemas.

A companhia admite que seu modelo ainda comete falhas, especialmente em temas delicados, como saúde mental, e por isso mantém a revisão humana como etapa obrigatória antes de qualquer ação.

A decisão da OpenAI escancara uma questão ética em aberto: até que ponto empresas privadas podem intervir em conversas pessoais sob o argumento da segurança? Especialistas reconhecem que a prática pode prevenir tragédias, mas também pode gerar abusos.

Com a inteligência artificial se tornando parte da rotina de milhões de pessoas, cresce a pressão por regras mais transparentes e limites claros para equilibrar privacidade e proteção.

Dúvidas, críticas ou sugestões? Fale com o nosso time editorial.
Julia da Silva

Julia da Silva

Jornalista com experiência em textos jornalísticos e de redação criativa, interessada pelo mundo e por boas histórias.

Deixe um comentário Cancelar resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Pesquisar

Sem resultados
Ver todos os resultados

Veja mais

Reserva de ouro monumental ao lado do Brasil vale R$ 900 bilhões e pode movimentar a economia mundial

Reserva de ouro monumental ao lado do Brasil vale R$ 900 bilhões e pode movimentar a economia mundial

02/04/2026
Pessoa acessando o e-mail

Gmail libera opção para trocar nome de e-mail antigo e adultos comemoram

02/04/2026
Portugal pode mudar as regras e tirar a cidadania de milhares de brasileiros

Portugal pode mudar as regras e tirar a cidadania de milhares de brasileiros

02/04/2026
Na China, casca de fruta já está sendo usada para “abastecer” carros

Na China, casca de fruta já está sendo usada para “abastecer” carros

02/04/2026
Novo medicamento aprovado pela Anvisa reduz riscos de contrair HIV

Exame de sangue pode prever seu risco de depressão no futuro, aponta estudo

02/04/2026
  • Contato
  • Política de Privacidade

TNH1

Bem-vindo de volta!

Faça login abaixo

Esqueceu a senha?

Recupere sua senha

Insira seu nome de usuário ou endereço de e-mail para redefinir sua senha.

Log In

Adicionar nova Playlist

Sem resultados
Ver todos os resultados
  • TNH1
  • Variedades
  • Tudo Pop
  • Contato
    • Política de Privacidade

TNH1