📢 Pressemitteilung

Professor verliert zwei Jahre ChatGPT-Forschung

3. Mai 2026·Quelle: t3n Künstliche Intelligenz

Nach Informationen von t3n hat ein Kölner Universitätsprofessor versehentlich zwei Jahre Forschungsdaten in ChatGPT gelöscht. Marcel Bucher nutzte die KI intensiv für Lehre und Forschung – zum Schreiben von E-Mails, zur Vorbereitung von Vorlesungen und Analyse von Studentenantworten. Als er eine Datenschutz-Einstellung deaktivierte, um deren Auswirkungen zu testen, verschwand sein gesamter Chat-Verlauf ohne Rückfrage oder Wiederherstellungsmöglichkeit.

Der Vorfall verdeutlicht ein kritisches Risiko bei der Abhängigkeit von Cloud-basierten KI-Tools: fehlende lokale Datensicherung und mangelnde Sicherheitsvorkehrungen gegen versehentliche Löschungen. Für Forscher, die KI als zentrales Werkzeug nutzen, ist dies ein Weckruf – ohne lokale Backups und bessere Sicherheitsmechanismen bleiben Arbeitsergebnisse anfällig für Datenverlust.

Unsere Einordnung

Ein mahnendes Beispiel: Wer KI-Tools als zentrale Produktivitätswerkzeuge nutzt, benötigt zwingend lokale Backups und Versionskontrolle – Cloud-Tools allein sind für kritische Forschungsarbeit unzureichend. OpenAI hätte bei solch destruktiven Änderungen zumindest eine Bestätigung fordern müssen. Das ist weniger ein KI-Problem als ein klassisches Produktdesign-Versäumnis.

Schlüsselfakten

  • Marcel Bucher nutzte ChatGPT über Jahre für Lehre, Forschung und Unterrichtsplanung
  • Durch Deaktivieren einer Datenschutz-Einstellung verschwand sein gesamter Chat-Verlauf
  • OpenAI bot keine Wiederherstellungsmöglichkeit oder Bestätigungsaufforderung an
  • Der Vorfall zeigt Risiken fehlender lokaler Datensicherung bei KI-Tools

Artikel teilen