02.April 2025 | Tanja | Thema: Datenschutz

Datenschutz und Künstliche Intelligenz

Schlagwörter: DSGVO | Umsetzung DSGVO

Künstliche Intelligenz und Datenschutz – ein Spannungsfeld, das Unternehmen, Organisationen und Aufsichtsbehörden vor große Herausforderungen stellt.

Foto von / Unlimphotos - Royalty Free Stock Photos

Moderne Technologien der Künstlichen Intelligenz, allen voran Large Language Models (LLMs), revolutionieren die Art und Weise, wie wir Informationen verarbeiten. Doch während diese leistungsstarken Modelle riesige Datenmengen analysieren, geraten sie immer wieder in Konflikt mit Datenschutzvorgaben für KI. Viele dieser Daten enthalten personenbezogene Informationen, deren Nutzung rechtlich durchaus problematisch sein kann.

Die Berlin Group (IWGDPT), eine internationale Expertengruppe unter der Leitung der Bundesbeauftragten für Datenschutz und Informationsfreiheit (BfDI), hat sich diesem Thema angenommen. In einem neuen Arbeitspapier zeigt sie, wie Datenschutz und Künstliche Intelligenz in Einklang gebracht werden können – und welche Maßnahmen Unternehmen ergreifen können, um Risiken zu minimieren.

Das Papier zu Large Language Models (LLMs) beleuchtet die Risiken, die beim Training dieser KI-Modelle mit großen Datenmengen entstehen. Gleichzeitig zeigt es auf, wie ihr Einsatz rechtskonform gestaltet werden kann. Die Publikation liefert wertvolle Impulse für eine verantwortungsvolle Nutzung von Daten und Künstlicher Intelligenz.

Large Language Models: Sicherer Einsatz durch datenschutzkonforme Techniken

Foto von / Unlimphotos - Royalty Free Stock Photos

Large Language Models (LLMs) sind die treibende Kraft hinter der Fähigkeit künstlicher Intelligenz, Texte in natürlicher Sprache zu generieren. Diese KI-Modelle werden mit riesigen Datenmengen trainiert, die oft auch personenbezogene Informationen enthalten. Die Nutzung von LLMs birgt jedoch auch immer erhebliche Datenschutzrisiken. So können beispielsweise fehlerhafte oder ungenaue Inhalte verbreitet werden und oft bleibt unklar, wie personenbezogene Daten in den Trainingsprozessen genutzt werden. Dies untergräbt das Vertrauen in die Technologie und führt zu einem Kontrollverlust über diese Daten.

Das Papier zu Large Language Models (LLMs) deckt Schwachstellen auf und zeigt konkrete Lösungen: Unternehmen sollen sicherstellen, dass die Trainingsdaten den Datenschutzgrundsätzen entsprechen. Transparenz, Zweckbegrenzung und eine klare Erlaubnisgrundlage sind dabei essenziell. Jedes Unternehmen muss genau prüfen, welche Daten für die KI genutzt werden dürfen – und zu welchem Zweck. Noch wichtiger sei es, die Verarbeitung personenbezogener Daten so weit wie möglich zu vermeiden.

Technische Lösungen für den datenschutzkonformen Einsatz von LLMs

Der datenschutzkonforme Einsatz von LLMs erfordert gezielte technische Maßnahmen. Dazu gehören innovative Ansätze, die verhindern, dass personenbezogene Daten rekonstruiert oder unkontrolliert genutzt werden. Privacy-Enhancing Technologies (PETs) spielen dabei eine zentrale Rolle. Sie ermöglichen es, Daten sicher zu verarbeiten, ohne die Privatsphäre der betroffenen Personen zu gefährden. Wichtige PETs sind:

  • Anonymisierung & Pseudonymisierung: Personenbezogene Daten werden so verändert, dass eine Identifizierung erschwert oder unmöglich wird.
  • Verschlüsselung: Selbst wenn Daten in falsche Hände geraten, bleiben sie geschützt.
  • Federated Learning: KI-Modelle lernen dezentral, sodass sensible Daten nicht zentral gespeichert oder weitergegeben werden müssen.
  • Machine Unlearning: Nachträgliches Entfernen von Daten aus einem Modell stellt sicher, dass bereits genutzte Informationen „vergessen“ werden können.
  • Differential Privacy: Zufällige Änderungen in Datensätzen verhindern Rückschlüsse auf einzelne Personen.

Fazit

Foto von / Unlimphotos - Royalty Free Stock Photos

Der Einsatz von Künstlicher Intelligenz bringt enorme Chancen, aber auch erhebliche Datenschutzherausforderungen mit sich. Unternehmen und Organisationen müssen sicherstellen, dass Künstliche Intelligenz verantwortungsvoll genutzt wird. Der Diskurs rund um Datenschutz und KI ist dynamisch und wird durch technologische und gesetzliche Entwicklungen rasant vorangetrieben. Hier lohnt es sich, regelmäßig neue Erkenntnisse und Best Practices zu verfolgen.

 

Weiterführende Informationen

DSK Orientierungshilfe der Konferenz der unabhängigen Datenschutzaufsichtsbehörden

procado BLOGt: KI-Gesetz der EU |  Unser Blogbeitrag zur neuen KI-Verordnung der EU

Effective implementation of data subjects rights Dr. Kris Shrishak |  Bericht analysiert Methoden, wie KI-Modelle personenbezogene Daten im Einklang mit der DSGVO gezielt löschen oder verlernen können, um die Rechte auf Berichtigung und Löschung effektiv umzusetzen

AI: Complex Algorithms and effective Data Protection Supervision |  Ein Projekt, das Datenschutzbehörden bei der Bewertung von Bias in KI und der Umsetzung der Betroffenenrechte nach DSGVO unterstützt