Rechtlicher Schutz von sensiblen Informationen und Geschäftsgeheimnissen
Informationen, die sich auf eine identifizierte oder identifizierbare natürliche Person beziehen, erfahren EU-weit Schutz z.B. durch die Datenschutzgrundverordnung (DSGVO). Die DSGVO gilt nicht für die Verarbeitung von Daten juristischer Personen. Betriebsgeheimnisse einer GmbH oder Umsatzzahlen einer Hochschule können aber durch das Gesetz von Geschäftsgeheimnissen (GeschGehG) geschützt sein. Der Begriff des Geschäftsgeheimnisses ist weit zu verstehen, er kann jede Art einer vertraulichen und unternehmensbezogenen Information erfassen. Hierunter fallen etwa unternehmsbezogene Kennzahlen und Werte sowie Angaben, die Rückschlüsse auf die Preisbildung ermöglichen. In welcher Form die Informationen vorliegen, ist unerheblich. Damit erfährt die als Datei gespeicherte SWOT-Analyse ebenso Schutz wie ein Umsatzdiagramm oder eine auf Papier handgefertigte technische Zeichnung.
Vertragliche (Neben-) Pflichten zur Geheimhaltung, Sperrvermerk
In der Praxis sind Geschäftsgeheimnisse und Know how häufig (zusätzlich) durch vertragliche Regelungen geschützt, z.B. durch eine Klausel im Arbeits- oder Gesellschaftsvertrag oder eigenständige Verschwiegenheitsabrede (Non-Disclosure-Agreement, NDA). Ohne ausdrückliche Vereinbarung kann sich Vertraulichkeit aus einer vertraglichen Nebenpflicht ergeben und sogar schon bei Anbahnung eines geschäftlichen Kontakts. Insoweit wird verwiesen auf den Artikel Ideenschutz.
Eine Vertraulichkeitserklärung enthält auch der Sperrvermerk. Ein solcher wird angebracht in Bachelor-, Master-, Doktor- und anderen wissenschaftlichen Arbeiten. Im Rahmen dieser lassen sich mit Betriebsinterna praxisnah Erkenntnisse gewinnen, die einem konkreten Unternehmen zugute kommen. Ebendiese Interna und Ergebnisse dürfen freilich nicht an die Konkurrenz gelangen oder gar veröffentlicht werden. Mit diesem Ziel stellen Unternehmen nicht selten Geheimhaltungserklärungen, aufgrund derer z.B. eine Masterarbeit für fünf Jahre „gesperrt“ ist.
Wo ist das Problem beim Prompting mit vertraulichen Daten?
Die DSGVO erfasst jede erdenkliche Verarbeitung von Daten (natürlicher Personen), hierzu gehört auch die Offenlegung durch Übermittlung. Hiervor schützt auch das GeschGehG. Die Verletzungshandlung besteht in einem Bruch der Vertraulichkeit, also in der Preisgabe des Geschäftsgeheimnisses gegenüber unberechtigten Dritten. Diese Voraussetzung ist auch z.B. erfüllt, wenn vertrauliche Daten auf einem Server abgelegt werden, auf den einzelne Personen, eine größere Gruppe von Personen oder die Allgemeinheit zugreifen kann. Den gleichen Schutzumfang wird man für die im vorangegangenen Absatz beschriebenen (neben-) vertraglichen Regelungen annehmen können.
Ist die Eingabe „sensibler“ oder „gesperrter“ Daten bei ChatGPT & Co eine solche – rechtswidrige – Preisgabe des Geheimnisses?
In einem Artikel vom 30. Januar 2024 führt das US-amerikanische Technikportal Ars Technica aus, dass ChatGPT Passwörter aus privaten Chats und Details eines unveröffentlichten Forschungsvorschlags preisgegeben habe. Für den Monat April 2023 hatten Italienische Datenschutzbehörden den Chatbot sogar gesperrt und OpenAI verboten, Nutzerdaten aus Italien zu verarbeiten. Nachdem OpenAI Auflagen zugestimmt hat, war das Tool zwar wieder verfügbar, Ende Januar 2024 befanden die Behörden aber erneut, dass ChatGPT europäisches Datenschutzrecht verletze. Dies folge auch daraus, dass sämtliche Anfragen von Nutzern und die darin erhaltenen Informationen in Datenbanken einfließen, um künftige Antworten zu verbessern. Damit aber besteht das Risiko, dass das KI-System durch entsprechende Ansteuerung vertrauliche Daten reproduziert – auch wenn ein solches rechtswidrig und vom Anbieter nicht vorgesehen ist. Es kann nicht ausgeschlossen werden, dass sich zum Training verwendete Informationen oder Teile davon als Output wieder entlocken lassen, ggf. sogar durch gezieltes Prompting. Ob die neue KI-Verordnung, die gewährleisten soll, dass die in der EU eingesetzten KI-Systeme transparent, zuverlässig und sicher sind, hieran was ändert, muss sich erst noch zeigen.
Zwischenfazit: Angesichts der gegenwärtigen technischen und rechtlichen Situation sollte man ChatGPT & Co nie mit vertraulichen Daten und Geschäftsgeheimnissen füttern.
Generative KI in der Praxis
Welche Konsequenzen sind daraus zu ziehen für die Praxis? Einerseits ließe sich die Nutzung von KI untersagen, etwa im Arbeitsverhältnis aufgrund des Direktionsrechts oder durch vertragliche Untersagung. Ein generelles Verbot würde jedoch auch den in vielen Fällen sinnvollen und förderlichen Einsatz von KI-Anwendungen ausschließen.
Stattdessen empfiehlt sich ein geregelter Einsatz. So könnte eine Handlungs- oder Arbeitsanweisung (als Teil der Compliance), ein Verhaltenskodex (Code of Conduct) oder eine Hochschulrichtlinie entsprechende Vorgaben enthalten. Hierzu sollte gehören:
KI-Einsatzbereich definieren: Ggf. sollten besonders sensible Informationen kategorisch ausgeschlossen sein.
Klare Regeln: Soweit der Einsatz von KI zulässig ist, festlegen, was zu den „sensiblen“ Daten gehört. Diese dürfen sodann nur vollkommen anonymisiert (bezogen auf Personen und Unternehmen) und abstrahiert (losgelöst von dem tatsächlichen Recherchegegenstand) eingegeben werden, um Rückschlüsse weitestgehend auszuschließen.
Klare Verantwortung: Betonen, dass die Nutzung von generativer KI mit besonderer persönlicher Verantwortung verbunden ist – und deren Missachtung einen Pflichtverstoß darstellt. Je nach Art und Umfang des Verstoßes kommen Konsequenzen bishin zur Kündigung oder einer Strafanzeige wegen Verletzung von Geschäftsgeheimnissen durch Offenlegung in Betracht. Wichtige Unterlassungspflichten lassen sich (z.B. im Arbeits- und Gesellschaftsrecht) auch durch Vertragsstrafevereinbarung bewehren.
Anonymisieren und Abstrahieren!
Dass ein Anonymisieren und Abstrahieren der Daten jedenfalls in seiner anwaltlichen Praxis bislang stets unproblematisch war, kann der Autor dieses Beitrages bestätigen. Bereits seit vielen Jahren, also weit vor dem KI-Hype, nutzt er z.B. Übersetzungstools wie deepl und google translate. Freilich wurden rund um Schriftsätze noch nie z.B. Namen einer Klägerin, eines Beklagten, von Mandantinnen oder Vertragsparteien eingegeben. In der Juristerei ist man ohnehin gewohnt zu abstrahieren. So begnügt man sich, abgesehen von der ersten Seite, dem sog. Rubrum (mit den Parteiangaben), üblicherweise mit „Rollenbezeichnungen“: Da heißt es nur noch „der Kläger“, „die Streitverkündete zu 1)“, „meine Mandantin“ oder „die Auftragnehmerin“.
Schwieriger wird eine Anonymisierung aber z.B. bei Informationen und Daten, die in ihrer Gesamtheit Rückschlüsse auf ein Unternehmen ermöglichen, etwa jene zur Konkurrenzanalyse und zum Vergleich mit einem direkten Wettbewerber. Können Methoden und Tools zur Datenanonymisierung hier helfen? Zwar lassen sich bestimmte Informationen etwa durch Zufallswerte ersetzen oder ausblenden (Maskierung), verändern durch Addition oder Subtraktion von Werten (Störung) oder verallgemeinern (Generalisierung). Hierunter leiden jedoch Genauigkeit und Nützlichkeit der Daten - und nicht bleibt das bezogene Unternehmen identifizierbar. Ob und wie weit Maßnahmen zur Datenanonymisierung vorzunehmen sind, wird somit - wie so oft in der Juristerei - vom Einzelfall abhängig sein. Hier kommt es im besonderen Maße auf Aufklärung, Schulung und ein Zusammenspiel von Datenschutzbeauftragten, IT-lern und Juristen (Compliance-Verantwortliche) an.
Sie haben weitere Fragen? Gerne unter nennen(at)nennen.de oder per Anruf.
Art. 4 Nr.1 DSGVO mit Erwägungsgrund 14; Erwägungsgrund 26 (Anonymisierte Daten); § 2 Nr.1 GeschGehG (Definition Geschäftsgeheimnis), § 23 Abs.1 Nr.2 GeschGehG (Verletzung von Geschäftsgeheimnissen durch Offenlegung); §§ 241 Abs. 2, 242, 311 Abs.2 BGB (Schuldverhältnis durch Geschäftsanbahnung); § 106 GewO (Weisungsrecht des Arbeitgebers, Beispiel). Generative KI im Unternehmen, Rechtliche Fragen zum Einsatz generativer Künstlicher Intelligenz im Unternehmen, Bitkom e.V. 2024, S. 39 ff., 42 oben; Nennen, Rechtsschutz von Akquiseleistungen der Werbebranche, WRP 2003, 1076 ff.; ChatGPT verstößt laut Italien gegen europäische Datenschutzregeln, ZEIT Online 2024.