Skip to main content

Google indexeert gedeelde ChatGPT-links

Waarom openbare links meer prijsgeven dan je denkt

Cybernews meldde dat gedeelde ChatGPT-links in de zoekresultaten van Google verschijnen. De functie is bedoeld voor samenwerking, maar laat ook complete gesprekken onbeschermd online staan.

Een gedeelde link lijkt misschien onschuldig. Veel gebruikers sturen hem naar een collega om snel een handig antwoord te tonen. Omdat er geen login nodig is, kan iedereen met de link de chat bekijken. Diezelfde toegankelijkheid maakt het voor zoekmachines eenvoudig om de inhoud te indexeren.

Wie zoekt op het specifieke linkpatroon vindt duizenden gesprekken. Daarin staan vaak volledige namen, e-mailadressen en zelfs bedrijfsgevoelige details. De links hebben geen vervaldatum, waardoor de chats online blijven tot je ze zelf verwijdert.

Wat Ging Fout

Het ontbreekt aan toegangsbeveiliging. OpenAI biedt geen wachtwoord- of tijdsrestrictie voor gedeelde links. Gebruikers denken soms dat het verwijderen van een chat uit hun eigen account genoeg is, maar de gedeelde pagina blijft bestaan tot je deze apart verwijdert. Zonder noindex-tag zien zoekmachines het bovendien als een gewone webpagina.

Hoe Je Jouw Gegevens Beschermt

  1. Gebruik een vorm van authenticatie. Deel links alleen binnen omgevingen die een wachtwoord of login vereisen.
  2. Blokkeer indexatie. Pas een robots.txt of meta noindex toe zodat zoekmachines de pagina overslaan.
  3. Train je team. Maak duidelijk dat gedeelde links standaard openbaar zijn en geen gevoelige informatie mogen bevatten.
  4. Verwijder oude links. Loop regelmatig gedeelde gesprekken na en haal ze weg als ze niet meer nodig zijn.
  5. Overweeg DLP-oplossingen. Automatische controles kunnen voorkomen dat vertrouwelijke gegevens worden gedeeld.

Voorbeeld van een Lek

Een marketingbureau deelde promptresultaten met een klantteam. Een medewerker plaatste per ongeluk strategie-notities en contactgegevens in de chat. Omdat de link publiek was, doken de informatie en bijbehorende namen op in Google. De klant ontdekte dit pas toen iemand de data terugvond via een zoekopdracht.

Ook op Reddit zijn gesprekken opgedoken waarin HR-gegevens te lezen waren, inclusief salarisinformatie. Niemand had kwaad in de zin, maar het incident toont aan hoe snel interne discussies buiten de deur belanden.

Deze voorbeelden maken duidelijk dat zelfs routinegesprekken gevoelige data kunnen onthullen als je ze zonder beveiliging deelt.

Waarom Het Belangrijk Is

Openbare chatlogs kunnen leiden tot reputatieschade, phishing of erger. Zelfs na verwijdering kan een kopie nog weken in zoekresultaten blijven staan. Organisaties die klantdata of vertrouwelijke plannen bespreken, moeten ChatGPT net zo zorgvuldig behandelen als andere cloudservices.

Emplex helpt bedrijven veilig met AI werken. In onze ChatGPT-workshop leggen we uit hoe je gedeelde chats beperkt tot je eigen team, welke beleidsafspraken nodig zijn en hoe je tijdelijke gesprekken instelt. We laten zien hoe je accountinstellingen zo configureert dat gevoelige gegevens beschermd blijven.

Klaar om actie te ondernemen?

Gebruik dit lek als waarschuwing en evalueer hoe jouw organisatie ChatGPT-links gebruikt. Met een paar simpele maatregelen voorkom je dat privé-informatie op straat belandt.

Contact voor een workshop op maat.

Houd grip op je chats en benut AI zonder het risico op datalekken.