jueves, octubre 2, 2025
InicioTecnologíaAnthropic obliga a los usuarios de Claude a elegir: compartir sus chats...

Anthropic obliga a los usuarios de Claude a elegir: compartir sus chats o quedar fuera del entrenamiento de IA

La empresa de inteligencia artificial Anthropic, creadora de Claude, ha anunciado un cambio drástico en sus políticas de privacidad y uso de datos. A partir del 28 de septiembre de 2025, todos los usuarios deberán decidir si permiten que sus conversaciones y sesiones de programación sean utilizadas para entrenar sus modelos de IA.

Anthropic obliga a los usuarios de Claude a elegir

Una política de datos mucho más agresiva

Hasta ahora, Anthropic no utilizaba chats de consumidores para entrenar a Claude y eliminaba las conversaciones en un plazo máximo de 30 días. Con la nueva norma, si el usuario no opta por excluirse, sus interacciones se almacenarán hasta cinco años.

Esta política afectará a los usuarios de Claude Free, Pro, Max y Claude Code, pero no a los clientes empresariales (Claude Gov, Work, Education o API), que seguirán protegidos, al igual que ocurre con los planes corporativos de OpenAI.

El discurso oficial y la realidad

Según la compañía, la medida busca “mejorar la seguridad de los modelos y la detección de contenido dañino”, además de perfeccionar habilidades como la programación, el análisis y el razonamiento.

En otras palabras: “ayúdanos a ayudarte”.

Sin embargo, expertos en la industria subrayan que lo que Anthropic necesita no es altruismo, sino datos masivos de calidad para competir contra gigantes como OpenAI y Google. El acceso a millones de interacciones reales con usuarios supone una ventaja competitiva decisiva en el desarrollo de modelos de lenguaje.

Un patrón repetido en la industria

La estrategia de Anthropic llega mientras otras tecnológicas enfrentan un duro escrutinio legal y regulatorio:

  • OpenAI está obligada judicialmente a retener todas las conversaciones de ChatGPT de los usuarios, incluso las eliminadas, por una demanda del New York Times y otros medios.
  • La FTC en EE.UU. ya ha advertido que modificar términos de servicio de forma encubierta o esconder cambios en letra pequeña puede derivar en sanciones.

Además, medios como The Verge alertan de que el diseño de las ventanas emergentes de Anthropic induce a aceptar sin leer los detalles: un gran botón negro de “Aceptar” y un pequeño interruptor activado por defecto para compartir datos.

Riesgos para la privacidad del usuario

Los expertos en privacidad advierten que obtener un consentimiento real y consciente en un entorno tan complejo como la IA es prácticamente imposible. La mayoría de usuarios creen que al eliminar sus chats realmente desaparecen, cuando en realidad se conservan durante años.

Con la nueva política, la conciencia del usuario y la transparencia se convierten en el gran reto para Anthropic y el resto del sector.

NOTICIAS RELACIONADAS

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

- Advertisment -spot_imgspot_img

MÁS POPULAR