De nieuwste beleidswijzigingen van Anthropic betekenen dat chats en codeersessies met Claude AI – tenzij u actie onderneemt – nu in aanmerking komen voor gebruik in toekomstige AI-modeltrainingen. Deze update is van toepassing op Claude Free-, Pro- en Max-gebruikers en introduceert een bewaartermijn van vijf jaar voor gegevens voor gebruikers die gegevensgebruik toestaan. Een beetje vreemd, maar omdat Windows of andere services het natuurlijk moeilijker moeten maken dan nodig is, moet u proactief zijn als u uw gesprekken privé wilt houden.
Als u liever niet wilt dat uw chats worden opgenomen in de modeltraining, moet u zich handmatig afmelden. Anders kunnen gegevens jarenlang worden opgeslagen en gebruikt, zelfs als het slechts een kort stukje code betreft of een gevoelige chat die u liever privé had gehouden.
Hoe u uw gesprekken buiten de AI-training kunt houden
Controleer de update-pop-up en schakel Gegevensdeling uit
- Meld u aan bij uw Claude-account via de web- of mobiele app.
- Wanneer u daarom wordt gevraagd, verschijnt er een pop-upvenster met de titel ‘Updates van de voorwaarden en het beleid voor consumenten’, vaak direct na het aanmelden.
- Dit omvat een schakelaar met het label ‘Help Claude verbeteren’ (of iets dergelijks).Deze staat meestal standaard AAN, wat betekent dat je data gebruikt kan worden om modellen te trainen.
👉 Zorg ervoor dat deze schakelaar UIT staat voordat je op Accepteren klikt. Eerlijk gezegd is het een beetje vreemd dat hij niet standaard uit staat, maar zo gaat dat soms.
Al geaccepteerd, maar de schakelaar gemist? Zo los je het op
Als je, net als ik, te snel op Accepteren hebt geklikt of bent vergeten de optie uit te zetten, is er nog hoop:
- Open Claude en ga naar Instellingen > Privacy > Privacyinstellingen
- Zoek naar ‘Help Claude te verbeteren’ en schakel het UIT
⚠️ Als je dit nu doet, worden toekomstige chats niet meer gebruikt in trainingen. Houd er echter rekening mee dat gegevens die je hebt gedeeld toen de chatfunctie AAN stond, mogelijk al in trainingscycli zijn opgenomen. Dit is een grijs gebied, maar het is verstandig om gevoelige informatie voor de zekerheid te verwijderen.
Verwijder gevoelige gesprekken voor extra veiligheid
- Door specifieke chats te verwijderen, zorgt u ervoor dat ze later niet meer worden gebruikt in trainingsmodellen.
- Prima, maar houd er rekening mee dat zodra gegevens onderdeel zijn van een voltooide trainingscyclus, ze niet met terugwerkende kracht kunnen worden verwijderd. Dat kan nogal frustrerend zijn als je je dat pas achteraf realiseert.
Maak er een gewoonte van om instellingen regelmatig te controleren
Omdat het beleid vrij vaak wordt bijgewerkt, is het belangrijk om je privacyinstellingen te controleren na een grote beleids- of app-update. Je weet maar nooit of er nieuwe opties zijn toegevoegd of dat de schakelaar weer op AAN staat.
- Ga regelmatig naar de Privacyinstellingen om te controleren of uw keuzes nog steeds geldig zijn.
Voor bedrijven of mensen met hoge beveiligingsbehoeften: overweeg Enterprise-abonnementen
Als privacy een groot probleem is, bieden de zakelijke opties van Anthropic, zoals Claude for Work of Claude API, vaak strengere bescherming. Ze bieden meestal specifieke contractuele garanties dat uw gegevens niet voor training worden gebruikt, plus extra beveiligingslagen. Als u in een gereguleerde sector werkt, is dat wellicht de beste optie.
- Meestal worden deze geregeld via directe contracten of bedrijfsovereenkomsten, niet via de reguliere aanmeldpagina.
Volledige privacy: voer AI lokaal uit
Als je privacy serieus neemt, is het lokaal draaien van AI-modellen de ultieme oplossing. Ik weet niet zeker waarom het werkt, maar in sommige configuraties voelt dit soms makkelijker dan al die bitflips en toggles.
- Vereist krachtige GPU’s en een beetje technische kennis.
- Download open-sourcemodellen zoals Hugging Face-transformatoren of GPT-NeoX.
- Geen servers van derden: uw gesprekken blijven op uw eigen hardware.
Waarschijnlijk het meest geschikt voor mensen die absoluut niet willen dat gegevens door derden worden verzameld of gewoon volledige controle willen hebben.
Belangrijkste punten
- Standaard = opt-in → U moet het delen handmatig uitschakelen als uw privacy van belang is.
- Als u zich afmeldt, worden uw gegevens 30 dagen bewaard. Als u zich aanmeldt, worden uw gegevens 5 jaar bewaard.
- Door chats te verwijderen, voorkomt u toekomstig gebruik van trainingen. Modellen die eerder op die gegevens zijn getraind, kunnen echter niet met terugwerkende kracht worden bewerkt.
- Aanbevolen werkwijze: maak een screenshot van uw instellingen of maak aantekeningen, zodat u weet wat u hebt ingeschakeld.
Laatste gedachten
De nieuwe beleidsregels van Anthropic lichten een tipje van de sluier op over hoe je gegevens worden gebruikt, en eerlijk gezegd is het een goede herinnering om je privacyinstellingen goed in de gaten te houden. Het uitzetten van die schakelaar ‘Help Claude te verbeteren’ en het verwijderen van vertrouwelijke chats zijn niet de meest opwindende stappen, maar ze zijn noodzakelijk als privacy een topprioriteit is. En als al het andere faalt, is lokaal beheer misschien wel de enige manier om alles echt onder controle te houden.
Samenvatting
- Controleer of er pop-upmeldingen verschijnen en schakel het delen van gegevens uit.
- Als u deze optie mist, kunt u de privacyinstellingen handmatig wijzigen.
- Verwijder gevoelige chats om toekomstig gebruik te voorkomen.
- Controleer de instellingen regelmatig na updates.
- Overweeg bedrijfsabonnementen of lokale oplossingen voor maximale controle.