Fünf häufige Missverständnisse über KI und Datenschutz

KI und Datenschutz
October 18, 2024

Missverständnisse über KI und Datenschutz

Als Datenschutzbeauftragter stoße ich hin und wieder auf Missverständnisse, wenn es um den Einsatz von Künstlicher Intelligenz (KI) und deren Vereinbarkeit mit Datenschutzbestimmungen geht. In diesem Artikel möchte ich die fünf häufigsten Missverständnisse aufklären und erläutern, wie KI und Datenschutz tatsächlich zusammenspielen. Da diese Lernreise anscheinend von einigen Datenschutzbeauftragten gelesen wird, gebe ich am Ende jeden Punktes eine Empfehlung ab, wie DSB sich aus meiner Sicht verhalten sollten. Zum Inhalt selbst, aber auch zu diesen Empfehlungen rege ich an, in den Kommentaren heftig zu diskutieren. 

1. “KI-Systeme sind immer objektiv und unvoreingenommen.”

Vorweg: Das genaue Gegenteil gibt es natürlich auch. “KI-Systeme sind nie objektiv und immer voreingenommen”. Diese Skepsis rührt von der Erfahrung oder dem angelesenen Wissen über Fehler im Training von KI-Systemen. 

Aber unter Punkt 1. Analysiere ich eine etwas naive Technikgläubigkeit, die uns in eine Falle führen kann. Dieses Missverständnis (oder diese Naivität) basiert auf der Annahme, dass Maschinen frei von menschlichen Vorurteilen sind. In Wahrheit können KI-Systeme die Voreingenommenheiten ihrer Entwickler oder der Trainingsdaten übernehmen und verstärken.

Realität: KI-Systeme können durchaus Bias aufweisen, der aus den Trainingsdaten oder dem Designprozess stammt. Leseempfehlung dazu (nicht ganz ernst gemeint): https://www.linkedin.com/pulse/bias-und-ki-wenn-menschen-maschinen-gemeinsam-die-irre-dirk-wolf-mmyxe/?trackingId=AMswpVoqWPCXfgVFUd7ZtQ%3D%3D 

Ein bekanntes Beispiel ist ein KI-Rekrutierungstool, das Amazon entwickelte und später zurückzog, weil es Frauen systematisch benachteiligte. Das System hatte aus historischen Bewerbungsdaten gelernt, in denen Männer überrepräsentiert waren. Das sind meiner Meinung nach „Kinderkrankheiten“ der KI, die mehr und mehr verschwinden. 

Um diesem Problem zu begegnen, ist es wichtig:

  • KI-Systeme regelmäßig auf Fairness zu überprüfen
  • Diverse (nicht besonders viele, sondern divers zusammengesetzte) Teams bei der Entwicklung einzusetzen
  • Trainingsdaten sorgfältig auf Repräsentativität zu prüfen
  • Bias-Erkennungs- und Korrekturverfahren zu implementieren
  • Transparenz über mögliche Einschränkungen des Systems zu schaffen

DSB sollten bei der Einführung von KI-Systemen, die personenbezogene Daten verarbeiten sollen oder dies jedenfalls könnten, darauf achten, dass diese Aspekte berücksichtigt werden und gegebenenfalls eine Datenschutz-Folgenabschätzung durchführen. Zum Thema DSFA bei KI-Einsatz werde ich aufgrund von Rückmeldungen demnächst einen Sonderartikel schreiben (sobald ich dazu komme, Puh…). 

2. “Wenn die Daten anonymisiert sind, gibt es keine Datenschutzprobleme bei KI.”

Viele glauben, dass die Anonymisierung von Daten alle Datenschutzbedenken beseitigt.

Realität: Moderne KI-Systeme können oft anonymisierte Daten durch Verknüpfung mit anderen Datensätzen de-anonymisieren. Ein berühmtes Beispiel ist der Fall, bei dem anonymisierte Netflix-Bewertungsdaten mit der öffentlichen IMDb Database verknüpft wurden, um Nutzer zu identifizieren. Die IMDb-Datenbank ist eine Online-Datenbank für Filme, Fernsehsendungen, Schauspieler, Regisseure und andere Film- und Fernsehfachleute. 

Zudem kann auch die Verarbeitung anonymisierter Daten zu Ergebnissen führen, die Rückschlüsse auf Einzelpersonen zulassen. Beispielsweise könnte ein KI-System aus anonymisierten Gesundheitsdaten Muster erkennen, die direkt oder indirekt auf bestimmte Personen hinweisen. Das ist zum Beispiel der Fall bei ausgesprochen seltenen Erkrankungen.

Um diesen Herausforderungen zu begegnen, sollten Unternehmen:

  • Robuste Anonymisierungstechniken einsetzen
  • Regelmäßige Re-Identifikationstests durchführen
  • Die Kombination von Datensätzen sorgfältig prüfen
  • Datenschutz-freundliche Analysetechniken wie Differential Privacy einsetzen
  • Auch bei der Verarbeitung anonymisierter Daten die ethischen Implikationen berücksichtigen

An Anonymisierung Interessierte können sich hier ein hervorragendes Bild von der Thematik verschaffen: https://stiftungdatenschutz.org/praxisthemen/anonymisierung

DSB sollten die Anonymisierungsprozesse kritisch hinterfragen und auf mögliche Risiken der Re-Identifikation hinweisen.

3. “KI-Entscheidungen sind nicht nachvollziehbar, daher kann man sie nicht DSGVO-konform gestalten.”

Die Komplexität von KI-Systemen führt oft zu der Annahme, dass ihre Entscheidungen grundsätzlich nicht erklärt werden können.

Realität: Es gibt zunehmend Methoden für “Explainable AI” (XAI), die Entscheidungsprozesse von KI-Systemen transparenter machen. Beispiele hierfür sind LIME (Local Interpretable Model-agnostic Explanations) oder SHAP (SHapley Additive exPlanations), die helfen, einzelne Entscheidungen nachzuvollziehen.

Exkurs, weil es hier sehr speziell wird und der/die „normale“ Datenschutzbeauftragte überfordert sein dürfte, diese Prüfungen selbst vorzunehmen. Das müssen wir auch nicht. Es ist aber hilfreich zu wissen, um was es geht und wie ich handeln kann, wenn ich gefragt werde (oder wie ich handeln sollte, wenn ich sehe, dass da was schief läuft). Dieser Exkurs geht eigentlich für einen solchen Artikel zu weit, ich schreibe ihn aber, weil beim Lesen der Verdacht beschlichen hat, ich könnte hier Bullshit-Bingo fördern. Dann erkläre ich es lieber. Wem das zu speziell ist, kann einfach nach „Exkurs Ende“ weiterlesen!

Explainable AI (XAI) bezeichnet Ansätze und Methoden, die darauf abzielen, die Entscheidungsprozesse von Künstlicher Intelligenz (KI) für Menschen verständlicher und nachvollziehbarer zu machen. Während traditionelle KI-Modelle, insbesondere komplexe neuronale Netze (Achtung: KI ist nicht immer generative KI, also Systeme, wie ChatGPT oder Claude, die auf Large Language Modulen basieren), oft als “Black Boxes” gelten, bei denen es schwer ist zu verstehen, wie sie zu ihren Ergebnissen gelangen, bietet XAI Werkzeuge, um die Entscheidungsfindung durch eine gewisse Transparenz möglich zu machen. Ziel ist es, die Gründe für spezifische Entscheidungen zu erklären, Vertrauen in KI-Systeme zu stärken und die Einhaltung von ethischen sowie gesetzlichen Anforderungen sicherzustellen.

LIME (Local Interpretable Model-agnostic Explanations) ist eine Methode, die hilft, einzelne Entscheidungen eines KI-Systems verständlich zu machen. Das Besondere an LIME ist seine Flexibilität:

Unabhängigkeit vom KI-Modell: LIME muss die inneren Strukturen einer KI nicht kennen. Es konzentriert sich einfach auf die Eingabe und die darauffolgende Ausgabe durch das KI-System.

Breite Anwendbarkeit: Aufgrund dieser Unabhängigkeit kann LIME für eine Vielzahl von KI-Modellen eingesetzt werden, egal ob es sich um neuronale Netze, Entscheidungsbäume oder andere Arten von Algorithmen handelt.

Lokale Erklärungen: LIME erstellt für jede einzelne Entscheidung eine vereinfachte, interpretierbare Version des Modells. Dies hilft zu verstehen, welche Eingabefaktoren für diese spezifische Entscheidung am wichtigsten waren.

Praktischer Nutzen: Als Datenschutzbeauftragter kannst du LIME nutzen, um einzelne KI-Entscheidungen zu überprüfen, ohne das gesamte System im Detail verstehen zu müssen. Dies ist besonders nützlich, wenn du erklären musst, wie eine bestimmte Entscheidung zustande gekommen ist. 

Okay, das ist für eine(n) einfache DSB immer noch „harter Tobak“. Aber wir nähern uns damit dem Verständnis. Hoffe ich 😉.

LIME ermöglicht es dir, die “Black Box” der KI für einzelne Fälle zu öffnen und nachvollziehbare Erklärungen zu liefern, unabhängig von der zugrunde liegenden KI-Technologie.

SHAP (SHapley Additive exPlanations) ist eine Methode, die hilft, den Einfluss jedes Datenmerkmals auf die Entscheidungen eines KI-Systems zu verstehen. SHAP zeichnet sich durch folgende Eigenschaften aus:

  1. Mathematische Grundlage: SHAP nutzt Konzepte aus der Spieltheorie, um fair zu berechnen, wie stark jedes Merkmal zum Endergebnis beiträgt. Es betrachtet dabei, wie sich die Ausgabe ändert, wenn ein Merkmal einer Eingabe hinzugefügt oder entfernt wird.
  2. Umfassende Analyse: SHAP berücksichtigt alle möglichen Kombinationen von Merkmalen. Es fragt quasi: “Wie wichtig ist dieses Merkmal der Eingabe in Zusammenarbeit mit allen anderen möglichen Merkmalskombinationen?”
  3. Globale und lokale Erklärungen: SHAP kann sowohl einzelne Entscheidungen als auch das Gesamtverhalten des Modells erklären. Dies ermöglicht ein tieferes Verständnis des KI-Systems.
  4. Modellunabhängigkeit: Ähnlich wie LIME kann SHAP auf verschiedene KI-Modelle angewendet werden, ohne deren interne Struktur zu kennen. Es konzentriert sich auf die Beziehung zwischen Eingabe und Ausgabe.

SHAP ermöglicht es, die “Black Box” der KI sowohl für einzelne Fälle als auch für das Gesamtsystem zu öffnen. Die Verantwortlichen erhalten dadurch nachvollziehbare Erklärungen für KI-Entscheidungen, was für den umfassenden Einsatz von KI-Systemen von großem Wert ist.

Gemeinsam tragen XAI, LIME und SHAP dazu bei, KI-Systeme transparenter und verantwortungsbewusster zu gestalten, indem sie die Black-Box-Natur von Modellen aufbrechen und ihre Entscheidungsprozesse nachvollziehbar machen.

Und das soll ich als DSB erledigen?

Als Datenschutzbeauftragter kannst Du in aller Regel zwar nicht selbst die technischen Analysen mit LIME oder SHAP durchführen, aber Du spielst eine wichtige Rolle bei der Implementierung und Überprüfung von Explainable AI (XAI) in Deinem Unternehmen bzw. bei Deinem Kunden. Hier sind einige Schritte, die Du unternehmen kannst:

  1. Schulung und Bewusstsein:
  • Sensibilisiere das Management und die IT-Abteilung für die Notwendigkeit erklärbarer KI-Systeme.
  1. Anforderungen definieren:
  • Lege fest, welche Art von Erklärungen für verschiedene Anwendungsfälle benötigt werden.
  1. Externe Expertise einbinden:
  • Schlage vor, XAI-Experten zu konsultieren oder einzustellen, die LIME, SHAP oder ähnliche Techniken anwenden können.
  • Schlage Partnerschaften mit spezialisierten Unternehmen oder Forschungseinrichtungen vor.
  1. Prozesse etablieren:
  • Entwickle Checklisten für die Überprüfung von KI-Systemen auf Erklärbarkeit. Nutze dafür KI!
  • Integriere XAI-Anforderungen in den Entwicklungsprozess neuer KI-Anwendungen
  1. Stichprobenprüfungen:
  • Fordere regelmäßige Berichte über die Erklärbarkeit von KI-Entscheidungen an.
  • Prüfe stichprobenartig, ob die gelieferten Erklärungen verständlich und aussagekräftig sind.
  1. Dokumentation und Audit:
  • Stelle sicher, dass die Methoden und Ergebnisse der XAI-Analysen dokumentiert werden.
  • Integriere XAI-Prüfungen in regelmäßige Datenschutz-Audits.
  1. Zusammenarbeit fördern:
  • Rege regelmäßige Treffen zwischen Datenschutz-, IT- und Fachabteilungen an, um XAI-Themen zu besprechen.
  • Fördere einen interdisziplinären Ansatz bei der Entwicklung und Implementierung von KI-Systemen.

Indem Du diese Schritte unternimmst, kannst Du als Datenschutzbeauftragter sicherstellen, dass XAI-Methoden wie LIME und SHAP effektiv eingesetzt werden, ohne dass Du selbst die technischen Analysen durchführen musst. Deine Rolle besteht darin, den Prozess zu steuern, die richtigen Fragen zu stellen und sicherzustellen, dass die Ergebnisse den Datenschutzanforderungen entsprechen. Verstehe Dich als Hüter des Datenschutzes. Du musst kein(e) KI-ExpertIn werden. 

Exkurs Ende

Fortsetzung des Punkts 3.

Zudem fordert die DSGVO richtigerweise nicht immer eine vollständige Erklärbarkeit, sondern analog der Art. 13, 14, 15 DSGVO “aussagekräftige Informationen über die involvierte Logik”. Dies kann oft durch eine Kombination aus:

  • Beschreibung der verwendeten Datenarten
  • Erklärung der grundlegenden Funktionsweise des Algorithmus
  • Darstellung der möglichen Auswirkungen auf die betroffene Person erreicht werden.

Unternehmen sollten:

  • XAI-Techniken in ihre KI-Systeme integrieren
  • Verständliche Erklärungen für KI-Entscheidungen vorbereiten
  • Prozesse einrichten, um menschliche Überprüfung und Intervention zu ermöglichen
  • Regelmäßige Audits der KI-Systeme durchführen

DSB spielen eine wichtige Rolle bei der Bewertung der Angemessenheit dieser Erklärungen und der Sicherstellung, dass betroffene Personen ihr Recht auf Information wahrnehmen können. Zudem können sie Verantwortliche auf die Möglichkeiten der Prüfung von KI-System mittels XAI, LIME und Shape aufmerksam machen (leider: siehe Exkurs😉). 

4. “Der Einsatz von KI erfordert immer die Einwilligung der betroffenen Personen.”

Viele Unternehmen glauben, sie benötigen für jede KI-Anwendung eine explizite Einwilligung. Wie für viele andere Anwendungsfälle sehe ich die Einwilligung im Gegenteil oft kritisch. 

Realität: Die DSGVO sieht verschiedene Rechtsgrundlagen für die Datenverarbeitung vor. KI kann auch auf Basis anderer Rechtsgrundlagen wie berechtigtes Interesse (6, 1, f) oder Vertragserfüllung (6, 1, b) eingesetzt werden, solange die Grundsätze der DSGVO eingehalten werden.

Beispiele für KI-Anwendungen ohne explizite Einwilligung könnten sein:

  • Betrugserkennung im Online-Banking (Vertragserfüllung)
  • Personalisierte Produktempfehlungen in einem Online-Shop (berechtigtes Interesse)
  • Prädiktive Wartung in der Industrie (berechtigtes Interesse)

Allerdings müssen Unternehmen auch hier:

  • Eine sorgfältige Interessenabwägung durchführen
  • Diese dokumentieren
  • Transparenz über den KI-Einsatz schaffen
  • Die Rechte der betroffenen Personen wahren, einschließlich des Rechts auf Information, Auskunft und Widerspruch

DSB sollten Unternehmen bei der Wahl der richtigen Rechtsgrundlage beraten und sicherstellen, dass alle notwendigen Schutzmaßnahmen implementiert sind. Zudem sollten sie darauf achten, dass die Betroffenen einfache Möglichkeiten haben, ihre Rechte einzufordern. 

5. “KI-Systeme sammeln und verarbeiten automatisch mehr Daten als herkömmliche Systeme.”

Es herrscht oft die Vorstellung, dass KI-Systeme immer riesige Datenmengen benötigen und sammeln.

Realität: Moderne KI-Systeme können auch mit begrenzten Datensätzen effektiv arbeiten. Der Grundsatz der Datenminimierung gilt auch für KI-Anwendungen, sofern personenbezogene Daten verarbeitet werden. Es ist in diesem Fall wichtig, nur die für den spezifischen Zweck notwendigen Daten zu verarbeiten. 

Techniken wie Transfer Learning (die Übertragung von Wissen aus einem bereits gelernten Bereich, der Quelldomäne, auf einen neuen, aber verwandten Bereich, der Zieldomäne), ermöglichen es, vortrainierte Modelle auf spezifische Aufgaben mit weniger Daten anzupassen. Federated Learning (eine Technik, die es ermöglicht, ein KI-Modell zu trainieren, während die Trainingsdaten dezentral auf den Geräten der Nutzer verbleiben) erlaubt es, Modelle zu trainieren, ohne zentral große Datenmengen zu sammeln. 

Unternehmen sollten:

  • Den Zweck der KI-Anwendung klar definieren und nur relevante Daten sammeln
  • Regelmäßig prüfen, ob alle gesammelten Daten noch notwendig sind
  • Datenschutz durch Technikgestaltung (Privacy by Design) bei der Entwicklung von KI-Systemen zur Verarbeitung personenbezogener Daten berücksichtigen
  • Techniken zur Datenreduktion und -aggregation einsetzen

DSB sollten darauf achten, dass der Grundsatz der Datenminimierung auch bei KI-Projekten konsequent umgesetzt wird.

Ausblick

Die Schnittstelle zwischen KI und Datenschutz wird sich in den kommenden Jahren dynamisch weiterentwickeln. Wir können erwarten:

  • Strengere Regulierungen: Mit dem EU AI Act werden spezifische Anforderungen für KI-Systeme eingeführt, die Datenschutzbeauftragte kennen sollten.
  • Fortschritte in erklärbarer KI: Neue Techniken werden die Transparenz von KI-Entscheidungen weiter verbessern.
  • Verstärkte Integration von Datenschutz: “Privacy by Design” wird in KI-Entwicklungsprozessen zunehmend Standard werden.
  • Neue ethische Herausforderungen: Mit fortschreitender KI-Technologie werden neue Fragen zur Balance zwischen Innovation und Privatsphaere aufkommen.

Als Datenschutzbeauftragte müssen wir diese Entwicklungen aktiv verfolgen und unsere Kenntnisse kontinuierlich erweitern, um Unternehmen und Betroffene in dieser sich schnell verändernden Landschaft effektiv beraten und schützen zu können.

Machen wir uns die Chancen von KI zunutze, ohne die Bedürfnisse der Menschen nach dem Schutz ihrer personenbezogenen Daten vor dem Missbrauch zu vergessen. Dann wird KI allen nutzen. 

 

Teilen

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.