Künstliche Intelligenz und Datenschutz - Möglichkeiten und Grenzen aus Sicht der Praxis

12. September 2023, von Dr. Georg F. Schröder

In der heutigen digitalen Welt ist der Einsatz von Künstlicher Intelligenz (KI) in Unternehmen nicht mehr wegzudenken. ChatGPT, eines der bekanntesten Modelle von OpenAI, bietet zahlreiche Möglichkeiten, den Geschäftsalltag zu optimieren. Doch wie lässt sich diese Technologie datenschutzkonform und sicher in Ihr Unternehmen integrieren? Dieser Beitrag gibt einen Überblick über die rechtlichen Herausforderungen und zeigt Lösungsansätze auf.

Rechtliche Herausforderungen

Urheberrecht:

Eine zentrale, aber auch schwierige Frage ist, wem das Urheberrecht an Werken zusteht, die von oder mit Hilfe von künstlicher Intelligenz geschaffen werden. Künstliche Intelligenz hat keine eigenen schöpferischen Fähigkeiten und kann daher niemals als Urheber eines Werkes angesehen werden. Daraus folgt, dass das Quellsystem, von dem aus die KI agiert, sicherstellen muss, dass es die erforderlichen Rechte an den betreffenden Werken besitzt. Bei Systemen wie ChatGPT, die auf bereits vorhandene Daten und Werke zurückgreifen, ist die Frage der Urheberrechtsverletzung besonders heikel. Es besteht immer die Gefahr, dass durch die Verwendung und Kombination von Daten unbeabsichtigt Urheberrechte verletzt werden.

Datenschutzrecht:

Das Datenschutzrecht und die Datenschutzstandards in Europa unterscheiden sich grundlegend von denen in den USA, aus denen die meisten KI-Kernsysteme stammen. Daraus ergeben sich zwei Hauptprobleme bei der Nutzung von KI-Systemen wie ChatGPT.

Übermittlung in Drittstaaten (Art. 44 – 49 DSGVO):

ChatGPT verarbeitet Daten in den USA, und dort gibt es im Rahmen der Terrorabwehr sehr weitreichende Befugnisse für Behörden, auf Daten zuzugreifen. Personenbezogene Daten, die in solche Systeme eingegeben werden, können potenziell von US-Behörden eingesehen werden. Dies stellt ein erhebliches Datenschutzrisiko dar, und die Frage, wie damit umzugehen ist, bleibt unbeantwortet. Im konkreten Fall von OpenAI liegt weder eine Legitimation durch eine Genehmigung nach dem EU-US Data Privacy Framework vor, noch kann eine wirksame EU-Standardvertragsklausel abgeschlossen werden.

Zweckbindung (Art. 5 I lit. b DSGVO):

Ein weiteres Problem stellt die Zweckbindung dar. Bei ChatGPT besteht die Gefahr, dass personenbezogene Daten nicht nur zur Bereitstellung des Dienstes, sondern auch zu Trainingszwecken verwendet werden. Dies war auch der Hauptgrund, warum die italienische Datenschutzbehörde die Nutzung von ChatGPT zunächst vollständig untersagt hatte.

Checkliste – KI im Unternehmen

In der sich rasant entwickelnden digitalen Landschaft werfen die rechtlichen Implikationen des Einsatzes von KI in Unternehmen eine Vielzahl von Fragen auf. Hier die wichtigsten Antworten:

1. Keine vertraulichen Daten beim Einsatz von ChatGPT:

Es ist von größter Wichtigkeit, dass vertrauliche Informationen, Geschäftsgeheimnisse oder personenbezogene Daten nicht in offenen Systemen wie ChatGPT verwendet werden. Denn das System ist grundsätzlich so konzipiert, dass alle eingegebenen Daten zu Lernzwecken verwendet werden können. Vertrauliche Daten sind dann nicht mehr vertraulich, sondern weltweit im Internet frei zugänglich.

2. Urheberrechte:

Bei der Nutzung offener KI-Systeme kann es schnell zu Urheberrechtsverletzungen kommen: Immer dann, wenn die Quelldaten nicht vom Urheber stammen (was häufig der Fall ist), können auch die von der KI generierten Daten Urheberrechte verletzen. Diese Problematik zeigt sich aktuell sehr deutlich im millionenschweren Rechtsstreit zwischen der Autorin Sarah Silverman und weiteren Autoren, die in den USA gegen OpenAI wegen möglicher Urheberrechtsverletzungen geklagt haben.

3. Einsatz von KI-Scannern und Paraphrasierungswerkzeugen:

Ein KI-Scanner kann ein nützliches Werkzeug sein, um maschinell erstellte Texte zu identifizieren und Urheberrechtsverletzungen zu vermeiden. Es gibt jedoch auch KI-Paraphrasierungswerkzeuge, die die Erkennung solcher Texte erschweren können. In bestimmten Branchen wie dem Verlagswesen und dem Bildungssektor ist eine geeignete Strategie zur Erkennung maschinell erstellter Inhalte jedoch unerlässlich.

4. Am wichtigsten: Sensibilisierung der Mitarbeiter

Es ist von entscheidender Bedeutung, dass Unternehmen klare Richtlinien und Verfahren für den Einsatz von KI-Tools wie ChatGPT festlegen. Die Mitarbeiter müssen über mögliche Risiken informiert und entsprechend geschult werden.

Die Integration von KI in den Geschäftsbetrieb bietet enorme Chancen, erfordert aber auch ein hohes Maß an rechtlicher Sorgfalt, um die Risiken für Unternehmen zu minimieren.

Weitere Informationen zum Thema KI und Datenschutz erhalten Sie in dem Forum „ChatGPT – datenschutzrechtliche Grenzen und Regularien an neue Geschäftsmodelle“.

Der Autor

Dr. Georg F. Schröder

LL.M. Rechtsanwalt Schröder Rechtsanwaltsgesellschaft mbH

Dr. Georg Schröder, LL.M. ist Gründer und Geschäftsführer der legal data Schröder Rechtsanwaltsgesellschaft mbH. Er beschäftigt sich seit 23 Jahren mit dem Datenschutzrecht und ist Autor der Standardwerke „Datenschutzrecht für die Praxis“ (Beck im dtv Verlag, 4. Auflage) und „Softwareverträge“ (Beck Verlag, 4. Auflage). Zu seinen persönlichen Mandanten zählen neben namhaften Banken und Medienkonzernen auch Start-up-Unternehmen aus der IT- und Softwarebranche. Vor legal data war Georg Partner einer großen deutschen Wirtschaftskanzlei, leitete dort verantwortlich den Bereich Datenschutz und hielt Lehraufträgen an der BA Ravensburg und der Lomonossov Universität Moskau.

Share

Künstliche Intelligenz und Datenschutz – Möglichkeiten und Grenzen aus Sicht der Praxis