No momento, você está visualizando Anthropic muda política: seus dados poderão treinar a IA Claude
Crédito: Anthropic

Anthropic muda política: seus dados poderão treinar a IA Claude

Anthropic muda política: seus dados poderão treinar a IA Claude

A Anthropic anunciou que começará a treinar seus modelos de IA com dados dos usuários, incluindo novas conversas e sessões de código, a menos que você opte por não participar (opt-out). Além disso, a empresa ampliou sua política de retenção de dados para cinco anos para quem não desativar essa opção.

Quem é a Anthropic?

A Anthropic é uma empresa de inteligência artificial fundada por ex-funcionários da OpenAI, focada no desenvolvimento de modelos de linguagem avançados com forte ênfase em segurança, ética e interpretabilidade. Seu principal produto é o Claude, uma família de modelos de IA que compete com soluções como ChatGPT e Gemini. A missão da Anthropic é criar sistemas de IA que sejam seguros, transparentes e alinhados aos interesses humanos.

O que será usado para treino?

A nova configuração se aplica a:
Novos chats ou sessões de código
Chats antigos retomados (se você continuar uma conversa antiga, ela poderá ser usada)
Não se aplica a planos comerciais, como Claude Gov, Claude for Work, Claude for Education e uso via API (Amazon Bedrock, Google Cloud Vertex AI).

Como será apresentado ao usuário?

A mudança será exibida por meio de um pop-up com o título:

“Updates to Consumer Terms and Policies”
Abaixo, haverá a frase:
“Allow the use of your chats and coding sessions to train and improve Anthropic AI models”, com um botão grande “Accept” e um toggle (On/Off) que, por padrão, estará ativado (On).

💡 Risco: muitos usuários podem clicar em “Accept” sem ler os detalhes e sem desativar a opção.

Como optar por NÃO participar?

Para manter sua privacidade:

  1. No pop-up, desative o toggle para “Off” antes de clicar em Accept.
  2. Se já aceitou por engano, vá em:
    Configurações → Privacidade → Configurações de Privacidade → “Help improve Claude” → Off.

📌 Importante: a mudança só vale para dados futuros. Tudo que já foi usado para treino não pode ser desfeito.

Privacidade e segurança

Segundo a Anthropic:

  • Eles não vendem dados para terceiros.
  • Usam ferramentas e processos automáticos para filtrar ou ocultar dados sensíveis.

Ainda assim, a retenção de até 5 anos levanta discussões sobre privacidade e controle de dados.

Prazo para decisão

Todos os usuários deverão escolher até 28 de setembro de 2025.

  • Quem clicar em “Aceitar” agora autorizará imediatamente o uso dos dados para treinar a IA e permitirá que eles sejam mantidos por até cinco anos.
  • Essa atualização vale para todos os planos de consumo do Claude (Free, Pro e Max), incluindo o Claude Code.

Conclusão

Essa mudança reforça um ponto crucial: entender políticas de privacidade antes de clicar em “Aceitar”. Se você é usuário do Claude e não quer que suas conversas sejam usadas para treinar IA, é essencial desativar a opção no pop-up ou nas configurações.

5 4 votos
Classificação do artigo
Inscrever-se
Notificar de
guest
0 Comentários
mais antigos
mais recentes Mais votado
Feedbacks embutidos
Ver todos os comentários