OpenAI verduidelijkt rechtszaak en ‘AI-privilege’ oproep van Sam Altman
Regelmatige gebruikers van ChatGPT, waaronder de auteur van dit artikel, hebben misschien gemerkt dat de populaire chatbot van OpenAI gebruikers in staat stelt om een tijdelijke chat te starten. Deze functie is ontworpen om alle informatie die tussen de gebruiker en het onderliggende AI-model is uitgewisseld te wissen zodra de chatsessie is gesloten. Daarnaast biedt OpenAI ook de mogelijkheid om eerdere ChatGPT-sessies handmatig te verwijderen via de linker zijbalk van de web- en desktop-/mobiele apps door erop te klikken of door de selectiemethode te gebruiken.
Deze week kreeg OpenAI echter kritiek van sommige ChatGPT-gebruikers toen ze ontdekten dat het bedrijf de chatlogs niet daadwerkelijk had verwijderd zoals eerder aangegeven. Een gebruiker op X vroeg zich af: “Je zegt me dat mijn verwijderde ChatGPT-chats eigenlijk niet zijn verwijderd en worden bewaard voor onderzoek door een rechter?” Dit bericht trok meer dan een miljoen weergaven.
Een andere gebruiker voegde hieraan toe: “Je kunt een ChatGPT-chat ‘verwijderen’, maar alle chats moeten bewaard blijven vanwege wettelijke verplichtingen?” Dit leidde tot bezorgdheid onder gebruikers over de privacy en gegevensbescherming van hun gesprekken met de AI.
Volgens AI-influencer en software-engineer Simon Willison, die op zijn persoonlijke blog schreef, kunnen betalende klanten van de API’s van OpenAI mogelijk besluiten om over te stappen naar andere aanbieders die retentiebeleid kunnen bieden dat niet ondermijnd wordt door deze rechterlijke uitspraak. OpenAI bevestigde dat het sinds medio mei 2025 verwijderde en tijdelijke gebruikerschatlogs heeft bewaard in reactie op een federale rechtbankorder, hoewel dit pas op 5 juni aan de gebruikers werd bekendgemaakt.
Rechterlijke opdracht en juridische implicaties
De rechterlijke opdracht, die hieronder is opgenomen en op 13 mei 2025 is uitgevaardigd door de Amerikaanse kantonrechter Ona T. Wang, vereist dat OpenAI "alle outputloggegevens die anders zouden worden verwijderd, behoudt en segregeert". Dit omvat chats die op verzoek van de gebruiker zijn verwijderd of vanwege privacyverplichtingen. Deze richtlijn heeft zijn oorsprong in de rechtszaak *The New York Times (NYT) tegen OpenAI en Microsoft*, een inmiddels anderhalf jaar oude auteursrechtszaak die nog steeds wordt behandeld.
De advocaten van de NYT beweren dat de taalmodellen van OpenAI auteursrechtelijk beschermd nieuwsinhoud letterlijk reproduceren. De eisers stellen dat logs, inclusief die welke gebruikers mogelijk hebben verwijderd, inbreukmakende uitkomsten zouden kunnen bevatten die relevant zijn voor de rechtszaak. Terwijl OpenAI onmiddellijk voldeed aan de opdracht, heeft het meer dan drie weken gewacht voordat het de betrokken gebruikers publiekelijk op de hoogte stelde, en publiceerde het een blogpost en veelgestelde vragen waarin de juridische verplichting werd beschreven en werd uiteengezet wie erdoor wordt getroffen.
OpenAI's verdediging en reactie op de kritiek
OpenAI legt de verantwoordelijkheid echter volledig bij de NYT en de rechterlijke opdracht en stelt dat het gelooft dat de eis tot behoud “gegrondloos” is. In een blogpost die gisteren werd gepubliceerd, verdedigde COO Brad Lightcap de positie van het bedrijf en verklaarde dat zij de verzoeken van de rechtbank serieus nemen, maar dat zij ook de belangen van hun gebruikers willen beschermen.
Het blijft een delicate balans tussen wettelijke vereisten en het waarborgen van de privacy van gebruikers. OpenAI heeft beloofd transparanter te zijn over deze zaken in de toekomst, maar gebruikers blijven bezorgd over de implicaties van het bewaren van hun gegevens. Het is duidelijk dat de discussie over privacy, ethiek en verantwoordelijkheid in de AI-ruimte steeds belangrijker wordt.
De toekomst van AI en gebruikersprivacy
De recente onthullingen hebben de aandacht gevestigd op de bredere kwesties van privacy en gegevensbeheer in de wereld van kunstmatige intelligentie. Naarmate AI-technologieën zich verder ontwikkelen, zullen bedrijven als OpenAI gedwongen worden om duidelijke en transparante beleid te hanteren die zowel wettelijke vereisten als gebruikersprivacy respecteren. Dit creëert een kans voor een nieuw soort ‘AI-privilege’, waarbij gebruikers kunnen vertrouwen op de bescherming van hun gegevens en tegelijkertijd profiteren van de voordelen van AI-technologie.
De toekomst van AI zal niet alleen worden gevormd door technologische vooruitgang, maar ook door de manier waarop bedrijven omgaan met de ethische en juridische implicaties van hun producten. Het is van cruciaal belang dat zowel bedrijven als gebruikers de dialoog aangaan over wat het betekent om veilig en verantwoord gebruik te maken van AI.
Vertaald met ChatGPT gpt-4o-mini