Een enkele muisklik in een AI-omgeving leidde tot het verdwijnen van omvangrijk professioneel materiaal. Het voorval legt structurele risico’s bloot in het dagelijks gebruik van generatieve AI.
Een academisch onderzoeker is recent meerdere jaren aan digitaal werk kwijtgeraakt na het aanpassen van een privacy-instelling in een veelgebruikte AI-chattool. Het ging om conceptteksten, aantekeningen en werkdocumenten die over een lange periode waren opgebouwd en uitsluitend binnen het platform waren bewaard.
Volgens de gebruiker was de instelling bedoeld om het gebruik van persoonlijke data te beperken. Kort na de wijziging bleek echter dat de volledige gespreksgeschiedenis onherroepelijk was verwijderd. Er verscheen geen waarschuwing vooraf en er was geen mogelijkheid om de gegevens te herstellen.
Onomkeerbare verwijdering
De gebruikte AI-dienst hanteert een strikt privacybeleid. Wanneer een gebruiker expliciet aangeeft dat gegevens niet langer mogen worden opgeslagen of gebruikt, worden bestaande data automatisch verwijderd. Deze werkwijze is bedoeld om te voldoen aan regelgeving rond gegevensbescherming.
In dit geval betekende dat dat alle eerdere interacties permanent verdwenen. Ondersteuning vanuit de dienstverlener bood geen soelaas, aangezien het beleid geen herstelprocedures voorziet zodra data op verzoek van de gebruiker is verwijderd.
AI niet ontworpen als archief
Het incident benadrukt een fundamenteel verschil tussen AI-tools en klassieke werkomgevingen. Generatieve AI-systemen zijn primair ontworpen voor interactie en ondersteuning, niet voor langdurige opslag of documentbeheer.
In tegenstelling tot traditionele cloudopslag of documentmanagementsystemen bieden AI-platformen doorgaans geen garanties op het gebied van versiebeheer, back-ups of databehoud. Toch worden ze in de praktijk steeds vaker als centrale werkplek gebruikt.
Groeiend professioneel gebruik
Steeds meer professionals zetten AI-chatbots in voor uiteenlopende taken, zoals het structureren van ideeën, het voorbereiden van teksten en het ondersteunen van onderzoek. Daarbij ontstaat de neiging om gegenereerde of bewerkte inhoud binnen dezelfde omgeving te laten staan.
Zonder aanvullende opslag of exportmechanismen kan dit leiden tot afhankelijkheid van een systeem dat daar niet voor bedoeld is. Het risico op dataverlies neemt toe zodra instellingen worden aangepast of accounts worden gewijzigd.
Discussie over gebruiksverwachtingen
Het voorval heeft geleid tot discussie over de verantwoordelijkheid van zowel gebruikers als platformaanbieders. Enerzijds ligt er een verantwoordelijkheid bij professionals om kritisch om te gaan met digitale hulpmiddelen. Anderzijds roept het ontbreken van duidelijke waarschuwingen vragen op over transparantie en gebruiksvriendelijkheid.
Met de toenemende integratie van AI in professionele workflows groeit ook de nood aan heldere richtlijnen rond databeheer, privacy-instellingen en risicocommunicatie.

Reacties
Een reactie posten