Ein Jahr ChatGPT: Berücksichtigung des Datenschutzes beim Einsatz von Large Language Models

  • 08.12.2023
  • Lesezeit 7 Minuten

Ein Jahr ist seit der Einführung von ChatGPT vergangen. Eine europäische Regulierung von KI lässt bislang auf sich warten. KI wird dennoch bereits in vielen Unternehmen eingesetzt, beispielsweise in Form von Large Language Models (LLM). Das bekannteste LLM ist ChatGPT. Häufig kommt ein LLM im Unternehmen ohne Vorgaben zur Nutzung zum Einsatz. Dabei sind Richtlinien für den Umgang von LLM für eine rechtssichere Verwendung entscheidend. Der Datenschutz sollte hierbei nicht vergessen werden.

Bei dem Einsatz von LLM spielt die Verwendung von personenbezogenen Daten in den folgenden Phasen eine Rolle:

  • Bei der Erhebung und Verwendung von Trainingsdaten,
  • bei der Bereitstellung und Nutzung der KI sowie
  • bei der Nutzung von Ergebnissen der KI.

Eingaben in ein cloudbasiertes LLM werden in der Regel auch für das Training des Systems genutzt. Das Training einer KI ist ein Prozess, bei dem ein untrainiertes Modell mit Trainingsdaten gefüttert wird, um es zu lehren, Muster und Zusammenhänge in den Daten zu erkennen und Vorhersagen zu treffen. Dabei kann es zur Übermittlung und Verwendung von personenbezogenen Daten kommen. Das kann eine Gefahr für die Vertraulichkeit der Daten sowie das Risiko einer unzulässigen Verarbeitung personenbezogener Daten bedeuten.

Welche Regeln hat ein Unternehmen konkret zu beachten?

Einige der Landesbeauftragten für Datenschutz und Informationssicherheit (LfDI) haben Diskussionspapiere sowie Checklisten entwickelt, die Unternehmen einen Überblick verschaffen sollen, welche Anforderungen das Unternehmen selbst sowie dessen Beschäftigte bei einem Einsatz von KI beachten sollten.

Beispielsweise hat das LfDI Hamburg im November eine Checkliste mit 15 Aspekten zum Einsatz LLM-basierter Chatbots veröffentlicht. Diese sind nicht verbindlich, können jedoch Hilfestellungen bieten. Die Checkliste beinhaltet unter anderem:

 

Vorgabe von Compliance-Regelungen

Unternehmen sollten ihren Mitarbeitern

  • konkrete Tools und Programme
  • zu konkreten Zwecken benennen und nur deren Nutzung erlauben.

Dies verhindert eine eigenmächtige und unkontrollierte Nutzung und der Arbeitgeber kann so eine etwaige Haftung für die Handlungen der Beschäftigten vermeiden. Eine Schulung der Beschäftigten zur richtigen Anwendung ist ebenfalls hilfreich.

 

Bereitstellung eines Funktions-Accounts

Beschäftigte sollten nicht eigenständig und unter Verwendung privater Daten (wie E-Mail-Adresse oder Telefonnummer) ein Konto zur geschäftlichen Nutzung erstellen dürfen. Es entsteht das Risiko, dass der LLM-Anbieter ein Profil zu dem jeweiligen Beschäftigten mit dessen privaten Daten hinterlegt. Wenn die Verwendung im beruflichen Kontext erwünscht ist, sollten berufliche Chatbot-Accounts zur Verfügung gestellt werden.

 

Datenschutzbeauftragte einbinden sowie Eingabe personenbezogener Daten vermeiden

Für eine umfassende Prüfung des LLM sollten Unternehmen ihre/n Datenschutzbeauftragte/n vor der Nutzung des Tools und bei Erstellung von Richtlinien hinzuziehen. Auf der ersten Ebene sollte diese/r zunächst prüfen, ob personenbezogene Daten überhaupt verarbeitet werden und in der Folge das Datenschutzrecht Anwendung findet. Daher müssen sich Fachbereiche und Geschäftsführung die Frage stellen, zu welchen Zwecken das LLM verwendet werden soll. Sind die Zwecke definiert und ist klar, dass personenbezogene Daten im Rahmen der Nutzung des LLM verarbeitet werden (können), haben Unternehmen stets zu prüfen, ob die Verwendung der personenbezogenen Daten in dem LLM gerechtfertigt ist. Auch dort, wo eine zielgerichtete Verarbeitung personenbezogener Daten nicht erfolgt, ist das Risiko der Preisgabe personenbezogener Daten stets zu prüfen und entsprechend zu berücksichtigen.

Eine Rechtfertigung scheidet regelmäßig aus, wenn sich ein Anbieter eines Chatbots in den Geschäftsbedingungen die Verwendung der Daten für eigene Zwecke einräumen lässt. Personenbezogenen Daten dürfen in den Fällen nicht an das LLM übermittelt werden.

Unternehmen sollten zudem Eingaben untersagen, die unter Umständen auf konkrete Personen bezogen werden können. Auch aus dem Zusammenhang lassen sich gegebenenfalls Rückschlüsse auf Personen im Unternehmen oder Dritten ziehen, bspw. sollte ein/e Beschäftigte/r einen Prompt eingeben, der sich auf Beschäftigte mit eindeutigen Merkmalen oder aus konkreten Abteilungen des Unternehmens bezieht. Bei LLM-Anwendungen, deren Bestimmung es ist, Querbezüge auch aus unstrukturierten Daten herzustellen, ist diese Gefahr besonders hoch. 

Zu beachten ist schließlich, dass bei einem Einsatz von LLM eine Datenschutz-Folgenabschätzung zu erstellen sein kann. 

 

Überprüfung der Ergebnisse auf Richtigkeit

Ein wichtiger Punkt bei dem Einsatz von LLMs ist die Überprüfung der ausgegebenen Antworten auf deren Richtigkeit. LLMs erzeugen Texte, die mit mathematischer Wahrscheinlichkeit dem gewünschten Ergebnis nahekommen. Das bedeutet jedoch nicht, dass das Ergebnis auch stets wahren Tatsachen entspricht. Das Gegenteil ist der Fall, denn es kommt regelmäßig vor, dass die KI hinter dem LLM Informationen und Sachverhalte „erfindet“. 

Sollte das Ergebnis des Prompts unrichtige personenbezogene Daten enthalten, die das Unternehmen im Anschluss weiterverwendet, würde es sich um eine unzulässige Verarbeitung personenbezogener Daten handeln, die zu den in der DSGVO vorgesehenen Sanktionen, einschließlich Bußgeldern, führen kann.

 

Keine automatisierte Letztentscheidung

Ausschließlich automatisierte Entscheidungen bezogen auf Personen sind grundsätzlich nicht erlaubt. Eine automatisierte Entscheidung liegt vor, wenn sie „ohne jegliches menschliche[s] Eingreifen“ erfolgt. Ein Beispiel für eine automatisierte Entscheidung ist, wenn allein aufgrund des vergebenen Scoring-Werts ein Vertragsschluss zustande kommt oder abgelehnt wird.

Vor diesem Hintergrund sollten Entscheidungen, die eine rechtliche Wirkung für die betroffene Person entfalten, grundsätzlich nur von Menschen getroffen werden. Andernfalls sind die Voraussetzungen des Art. 22 DSGVO zu beachten. Erarbeitet ein LLM-basierter Chatbot Vorschläge für Beschäftigte, müssen Unternehmen somit darauf achten, dass den Beschäftigten bei ihrer Letztentscheidung ein tatsächlicher Entscheidungsspielraum zukommt. Die Beschäftigten dürfen nicht an die Vorschläge des LLM gebunden sein. Der Einsatz und die Entscheidungsfindung sollte transparent gestaltet und dokumentiert werden. 

 

Opt-out des KI-Trainings & der History

Soweit möglich, sollten Unternehmen gegenüber dem LLM-Anbieter die Option nutzen, die Verwendung der getätigten Eingaben zu Trainingszwecken abzulehnen. Dies minimiert das Risiko, dass weitere Unternehmen, Beschäftigte und sonstige Dritte diese Informationen erfragen können – mit der Folge der ungewollten Offenlegung von persönlichen Daten und Unternehmensdaten.

Gleichzeitig ist es ratsam, das Speichern der bisherigen Eingaben abzuwählen. Insbesondere bei der gemeinsamen Nutzung durch mehrere Beschäftigte ist die Deaktivierung der History zu empfehlen, da Inhalte ansonsten für alle Kolleg/innen einsehbar sind.

Bei ChatGPT ist das Opt-out derzeit möglich über die Einstellungen unter → Setting → Data Controls → Chat history and training.

 

Authentifizierung

Auch auf die Authentifizierung der Mitarbeiter-Accounts sollten Unternehmen einen besonderen Fokus legen. Betrieblich genutzte Accounts für LLM bieten ein erhebliches Missbrauchspotential. Gelangen Angreifer unberechtigt zur Anwendungsoberfläche, können sie gegebenenfalls bisherige Aktivitäten einsehen. Über eigene Abfragen können Angreifer außerdem persönliche Informationen von Beschäftigten oder Dritten in Erfahrung bringen. Vor diesem Hintergrund sind starke Passwörter und die Integration von weiteren Authentifizierungsfaktoren integraler Bestandteil für den Schutz der Accounts sowie Unternehmensdaten.

  

Das LfDI Baden-Württemberg hat in seinem Diskussionspapier ebenfalls aus November 2023 die wesentlichen Fragen, die sich Unternehmen bei einem Einsatz von KI stellen sollten, wie folgt zusammengefasst:

  • Welche Phase der Verarbeitung von Daten im Zusammenhang mit KI unterliegt der rechtlichen Bewertung?
  • Werden personenbezogene Daten im Anwendungsbereich der DSGVO verarbeitet? Bzw. werden anonyme Daten verarbeitet, die zu personenbezogenen Daten werden können?
  • Wer ist der Verantwortliche der Datenverarbeitung?
  • Ist eine Rechtsgrundlage im Datenschutzrecht vorhanden? Werden besondere Kategorien personenbezogener Daten verarbeitet, die eine Rechtsgrundlage nach Art. 9 Abs. 2 DSGVO bedürfen?
  • Werden die übrigen Datenschutz-Pflichten eingehalten: z. B. die Grundsätze der DSGVO (Art. 5 DSGVO), die Beachtung der Betroffenenrechte (Art. 12 ff. DSGVO), die Umsetzung der technischen und organisatorischen Maßnahmen und Garantien (Art. 24 ff. und Art. 89 Abs. 1 DSGVO) und ggf. die Anfertigung einer Datenschutz-Folgeabschätzung (Art. 35 DSGVO).

Vor dem Hintergrund der vielfältigen Fragen sollten sich Unternehmen im Vorfeld detailliert Gedanken dazu machen, welche LLM-Tools ihre Beschäftigten zu welchen Zwecken einsetzen dürfen und prüfen, ob und welche personenbezogenen Daten betroffen sein können. Nur bezogen hierauf kann eine datenschutzrechtliche Prüfung des LLM-Einsatzes erfolgen und Maßnahmen zum Schutz personenbezogener Daten definiert werden, wie bspw. die Aktivierung des Opt-outs des KI-Trainings sowie die Erstellung einer Richtlinie zur Nutzung des LLM.

Derzeit prüfen die Datenschutzaufsichtsbehörden die am Markt befindlichen Sprachmodelle auf deren Rechtmäßigkeit. Die aktuellen regulatorischen Entwicklungen sollten vor diesem Hintergrund stets im Blick gehalten werden. 

Artikel teilen:

Autor dieses Artikels

Sarah Lohmeier

Senior Manager

Rechtsanwältin, zertifizierte Beraterin im Datenschutzrecht

Offene Fragen zu unseren Services?

Jetzt Kontakt aufnehmen

Kontakt aufnehmen