Cómo proteger sus datos al optar por no participar en el entrenamiento del modelo de IA de Claude

Los últimos cambios en las políticas de Anthropic implican que los chats y las sesiones de programación con Claude AI, a menos que tomes medidas, ahora pueden usarse en futuros entrenamientos de modelos de IA. Esta actualización aplica a los usuarios de Claude Free, Pro y Max, e introduce un periodo de retención de datos de cinco años para quienes permitan su uso. Es un poco extraño, pero como Windows o los servicios tienen que complicarlo más de lo necesario, debes ser proactivo si quieres que tus conversaciones sean privadas.

Si prefiere que sus chats no se incluyan en el entrenamiento de modelos, deberá desactivarlo manualmente. De lo contrario, los datos podrían almacenarse y usarse durante años, incluso si se trata de un fragmento de código o un chat confidencial que desearía mantener privado.

Cómo mantener tus conversaciones fuera del entrenamiento de IA

Marque la ventana emergente de actualización y desactive el uso compartido de datos

  • Inicie sesión en su cuenta de Claude en la web o en la aplicación móvil.
  • Cuando se le solicite, aparecerá una ventana emergente titulada “Actualizaciones de los términos y políticas del consumidor”, generalmente justo después de iniciar sesión.
  • Esto incluye un interruptor llamado “Ayuda a mejorar a Claude” (o algo similar).Normalmente, está activado por defecto, lo que significa que tus datos se pueden usar para entrenar modelos.

Asegúrate de desactivar esta opción antes de hacer clic en “Aceptar”. La verdad es que es un poco raro que no esté desactivada por defecto, pero así son las cosas a veces.

¿Ya lo aceptaste, pero no lograste activar el interruptor? Aquí te explicamos cómo solucionarlo.

Si, como yo, hiciste clic en aceptar demasiado rápido o te olvidaste de desactivarlo, aún hay esperanza:

  • Abra Claude y vaya a Configuración > Privacidad > Configuración de privacidad
  • Busca “Ayuda a mejorar a Claude” y desactívalo

⚠️ Hacer esto ahora evitará que los chats futuros se usen en el entrenamiento, pero ten en cuenta que cualquier dato que compartiste mientras estaba activado podría ya haberse incluido en los ciclos de entrenamiento. Es una zona gris, pero es mejor eliminar la información sensible por si acaso.

Elimine conversaciones sensibles para mayor seguridad

  • Eliminar chats específicos es una forma de garantizar que no se utilicen más adelante en los modelos de entrenamiento.
  • Bien, pero recuerda: una vez que los datos son parte de un ciclo de entrenamiento completo, no se pueden eliminar de forma retroactiva, lo que resulta un poco frustrante si te das cuenta después del hecho.

Adquiera el hábito de revisar la configuración periódicamente

Dado que las políticas se actualizan con frecuencia, revisa tu configuración de privacidad después de cualquier actualización importante de políticas o de la aplicación. Nunca se sabe si se introdujeron nuevas opciones o si el interruptor volvió a estar activado.

  • Regrese a la Configuración de privacidad periódicamente para asegurarse de que sus opciones aún sean válidas.

Para empresas o necesidades de alta seguridad: considere los planes empresariales

Si la privacidad es una gran preocupación, las opciones empresariales de Anthropic, como Claude for Work o Claude API, suelen ofrecer protecciones más estrictas. Suelen ofrecer garantías contractuales específicas que garantizan que sus datos no se utilizarán para formación, además de capas de seguridad adicionales. Si trabaja en un sector regulado, esta podría ser la mejor opción.

  • Por lo general, estos se organizan a través de contratos directos o acuerdos empresariales, no a través de la página de registro habitual.

Privacidad total: Ejecute la IA localmente

Si te tomas en serio la privacidad, ejecutar modelos de IA localmente es la mejor opción. No sé por qué funciona, pero en algunas configuraciones, a veces resulta más fácil que lidiar con todos los cambios de bits y conmutadores.

  • Requiere GPU potentes y un poco de conocimiento técnico.
  • Descargue modelos de código abierto como los transformadores Hugging Face o GPT-NeoX.
  • Sin servidores de terceros: sus conversaciones permanecen en su hardware.

Probablemente sea mejor para aquellos que realmente no desean ninguna recopilación de datos de terceros o simplemente desean tener control total.

Conclusiones clave

  • Valor predeterminado = aceptar → Debes deshabilitar manualmente el uso compartido si la privacidad es importante.
  • La exclusión voluntaria conserva los datos durante 30 días, pero la inclusión significa 5 años.
  • Eliminar chats ayuda a evitar su uso en futuros entrenamientos, pero los modelos anteriores ya entrenados con esos datos no se pueden editar de forma retroactiva.
  • Práctica recomendada: haz una captura de pantalla de tu configuración o guarda notas para recordar lo que activaste.

Reflexiones finales

Las nuevas políticas de Anthropic revelan cómo se usan tus datos y, sinceramente, es un buen recordatorio para estar al tanto de la configuración de privacidad. Desactivar la opción “Ayuda a mejorar Claude” y eliminar chats sensibles no son los pasos más emocionantes, pero son necesarios si la privacidad es una prioridad. Y si todo lo demás falla, gestionar las cosas localmente podría ser la única manera de mantener todo bajo control.

Resumen

  • Verifique los avisos emergentes y desactive el uso compartido de datos.
  • Si no lo hace, cambie la configuración de privacidad manualmente.
  • Elimina los chats confidenciales para evitar su uso en el futuro.
  • Revise la configuración periódicamente después de las actualizaciones.
  • Considere planes empresariales o soluciones locales para obtener el máximo control.