So schützen Sie Ihre Daten, indem Sie das Claude AI-Modelltraining ablehnen

Die neuesten Richtlinienänderungen von Anthropic bedeuten, dass Chats und Programmiersitzungen mit Claude AI – sofern Sie nichts unternehmen – nun für zukünftige KI-Modelltrainings verwendet werden können. Dieses Update gilt für Nutzer der Claude Free-, Pro- und Max-Versionen und führt eine fünfjährige Datenaufbewahrungsfrist für diejenigen ein, die die Datennutzung zulassen. Etwas seltsam, aber da Windows oder Dienste es natürlich unnötig erschweren müssen, müssen Sie proaktiv sein, wenn Sie Ihre Gespräche privat halten möchten.

Wenn Sie Ihre Chats nicht in das Modelltraining einbeziehen möchten, müssen Sie dies manuell deaktivieren. Andernfalls können Daten jahrelang gespeichert und verwendet werden, selbst wenn es sich nur um einen kurzen Codeausschnitt oder einen vertraulichen Chat handelt, den Sie lieber privat gehalten hätten.

So halten Sie Ihre Gespräche aus dem KI-Training heraus

Überprüfen Sie das Update-Popup und deaktivieren Sie die Datenfreigabe

  • Melden Sie sich im Web oder in der mobilen App bei Ihrem Claude-Konto an.
  • Wenn Sie dazu aufgefordert werden, wird häufig direkt nach der Anmeldung ein Popup mit dem Titel „Aktualisierungen der Verbraucherbedingungen und -richtlinien“ angezeigt.
  • Dazu gehört ein Schalter mit der Aufschrift „Helfen Sie, Claude zu verbessern“ (oder etwas Ähnliches).Normalerweise ist dieser standardmäßig EIN geschaltet, d.h. Ihre Daten können zum Trainieren von Modellen verwendet werden.

👉 Stellen Sie sicher, dass dieser Schalter AUSGESCHALTET ist, bevor Sie auf „Akzeptieren“ klicken. Ehrlich gesagt ist es etwas seltsam, dass er standardmäßig nicht ausgeschaltet ist, aber so läuft es manchmal.

Bereits akzeptiert, aber den Umschalter verpasst? So beheben Sie das Problem

Wenn Sie wie ich zu schnell auf „Akzeptieren“ geklickt oder vergessen haben, die Option auszuschalten, besteht immer noch Hoffnung:

  • Öffnen Sie Claude und gehen Sie zu Einstellungen > Datenschutz > Datenschutzeinstellungen
  • Suchen Sie nach „Helfen Sie, Claude zu verbessern“ und schalten Sie es AUS

⚠️ Wenn Sie dies jetzt tun, verhindern Sie, dass zukünftige Chats im Training verwendet werden. Bedenken Sie jedoch, dass alle Daten, die Sie während der Aktivierung geteilt haben, möglicherweise bereits in Trainingszyklen enthalten waren. Es ist eine Grauzone, aber am besten löschen Sie vertrauliche Daten vorsichtshalber.

Löschen Sie vertrauliche Gespräche, um besonders sicher zu sein

  • Durch das Löschen bestimmter Chats können Sie sicherstellen, dass sie später nicht in Trainingsmodellen verwendet werden.
  • Gut, aber bedenken Sie: Sobald Daten Teil eines abgeschlossenen Trainingszyklus sind, können sie nicht mehr rückwirkend entfernt werden – was ziemlich frustrierend ist, wenn Sie es im Nachhinein bemerken.

Machen Sie es sich zur Gewohnheit, die Einstellungen regelmäßig zu überprüfen

Da Richtlinien häufig aktualisiert werden, sollten Sie Ihre Datenschutzeinstellungen nach jedem größeren Richtlinien- oder App-Update noch einmal überprüfen. Sie wissen nie, ob neue Optionen eingeschmuggelt wurden oder der Schalter wieder auf „Ein“ gerutscht ist.

  • Kehren Sie regelmäßig zu den Datenschutzeinstellungen zurück, um sicherzustellen, dass Ihre Auswahl weiterhin gültig ist.

Für Unternehmen oder hohe Sicherheitsanforderungen: Enterprise-Pläne in Betracht ziehen

Wenn Datenschutz ein großes Anliegen ist, bieten die Enterprise-Optionen von Anthropic wie Claude for Work oder Claude API oft strengere Schutzmaßnahmen. Sie enthalten in der Regel spezifische vertragliche Garantien, dass Ihre Daten nicht für Schulungszwecke verwendet werden, sowie zusätzliche Sicherheitsebenen. Wenn Sie in einer regulierten Branche tätig sind, könnte dies die richtige Lösung sein.

  • Diese werden normalerweise über direkte Verträge oder Unternehmensvereinbarungen vereinbart, nicht über die reguläre Anmeldeseite.

Vollständige Privatsphäre: KI lokal ausführen

Wenn Sie es mit dem Datenschutz ernst meinen, ist die lokale Ausführung von KI-Modellen die beste Lösung. Ich bin mir nicht sicher, warum das funktioniert, aber in manchen Setups fühlt es sich manchmal einfacher an, als sich mit all den Bit-Flips und Toggles herumzuschlagen.

  • Erfordert leistungsstarke GPUs und ein wenig technisches Know-how.
  • Laden Sie Open-Source-Modelle wie Hugging Face Transformers oder GPT-NeoX herunter.
  • Keine Server von Drittanbietern – Ihre Gespräche bleiben auf Ihrer Hardware.

Wahrscheinlich am besten für diejenigen geeignet, die wirklich keine Datenerfassung durch Dritte wünschen oder einfach nur die volle Kontrolle haben möchten.

Die wichtigsten Erkenntnisse

  • Standard = Opt-in → Sie müssen die Freigabe manuell deaktivieren, wenn Ihnen der Datenschutz wichtig ist.
  • Bei einer Abmeldung werden die Daten 30 Tage lang gespeichert, bei einer Anmeldung hingegen 5 Jahre.
  • Durch das Löschen von Chats wird die zukünftige Verwendung für Schulungen verhindert. Frühere Modelle, die bereits mit diesen Daten trainiert wurden, können jedoch nicht nachträglich bearbeitet werden.
  • Best Practice: Machen Sie einen Screenshot Ihrer Einstellungen oder machen Sie sich Notizen, damit Sie sich daran erinnern, was Sie umgeschaltet haben.

Abschließende Gedanken

Die neuen Richtlinien von Anthropic lüften ein wenig den Schleier darüber, wie Ihre Daten verwendet werden, und sind ehrlich gesagt eine gute Erinnerung daran, die Datenschutzeinstellungen im Auge zu behalten. Das Ausschalten des „Helfen Sie, Claude zu verbessern“-Schalters und das Löschen vertraulicher Chats sind zwar nicht die aufregendsten Schritte, aber sie sind notwendig, wenn Datenschutz oberste Priorität hat. Und wenn alles andere fehlschlägt, ist die lokale Ausführung möglicherweise die einzige Möglichkeit, wirklich alles unter eigener Kontrolle zu behalten.

Zusammenfassung

  • Suchen Sie nach Popup-Eingabeaufforderungen und deaktivieren Sie die Datenfreigabe.
  • Falls Sie etwas übersehen haben, ändern Sie die Datenschutzeinstellungen manuell.
  • Löschen Sie vertrauliche Chats, um eine zukünftige Verwendung zu vermeiden.
  • Überprüfen Sie die Einstellungen nach Updates regelmäßig.
  • Erwägen Sie Unternehmenspläne oder lokale Lösungen für maximale Kontrolle.