Im Interview erläutert Denis Lehmkemper, Niedersächsischer Landesbeauftragter für Datenschutz, seine Sicht auf die Bedeutung und die dynamische Entwicklung von KI. Dabei geht es u. a. um die Vertrauenswürdigkeit von KI-Systemen, relevante datenschutzrechtliche Fragestellungen und die Bedeutung von Regeln für die Entwicklung und Anwendung von KI.
Herr Lehmkemper, als Landesbeauftragter für Datenschutz in Niedersachsen haben Sie einen besonderen Blick auf Digitalisierung, Datenübermittlung und Datenschutz. Welche Bedeutung hat das Thema „Künstliche Intelligenz“ für Sie?
Für unsere Behörde hat das Thema Künstliche Intelligenz mittlerweile eine große Bedeutung. Wir haben zunehmend Beratungsanfragen zum Einsatz von KI-Systemen unter anderem in der Verwaltung, bei Unternehmen und in Schulen. Meist geht es dabei um KI-basierte Chatbots.
Wir haben in unserer Datenschutzbehörde im Oktober 2024 eine Stabsstelle KI eingerichtet, deren Team sich mit den Herausforderungen von Datenschutz und Künstlicher Intelligenz auseinandersetzt und Verantwortliche in Niedersachsen zu datenschutzrechtlichen Fragen rund um KI berät. Hier ist auch die Stelle eines wissenschaftlichen Mitarbeiters angesiedelt, der für unsere Behörde im Forschungsprojekt CRAI mitarbeitet. Das ist ein KI-Reallabor, das mittelständische Unternehmen bei der Entwicklung und Anwendung vertrauenswürdiger KI-basierter Geschäftsmodelle begleitet.
Schließlich haben wir in 2024 Expertengespräche zu Künstlicher Intelligenz geführt, denn es gibt noch datenschutzrechtlichen Regelungs- und technischen Entwicklungsbedarf. Besonders freue ich mich noch auf unser KI-Symposium, das in Kürze in Hannover stattfinden wird.
Wie setzen Sie sich konkret mit Künstlicher Intelligenz auseinander?
Die Konferenz der unabhängigen deutschen Datenschutzbehörden (kurz DSK), zu der auch unsere Behörde gehört, befasst sich bereits seit 2018 mit den datenschutzrechtlichen Fragestellungen der Künstlichen Intelligenz. KI-Systeme müssen die Grundsätze des Datenschutzes einhalten. Allerdings stehen insbesondere die Grundsätze der Datenminimierung, der Transparenz, der Zweckbindung und der Richtigkeit von personenbezogenen Daten im Widerspruch zu den Grundlagen der Entwicklung, Zielsetzung und Anwendung von vielen KI-Systemen.
Diesen Grundkonflikt hat die DSK frühzeitig erkannt. 2019 hat sie mit der sogenannten Hambacher Erklärung zur Künstlichen Intelligenz sieben datenschutzrechtliche Anforderungen an Systeme zur Künstlichen Intelligenz beschlossen, etwa dass KI-Systeme personenbezogene Daten transparent verarbeiten und Diskriminierung vermeiden müssen. Die DSK hat außerdem frühzeitig in einem Positionspapier die Umsetzung konkreter technischer und organisatorischer Maßnahmen bei der Entwicklung und dem Betrieb von KI-Systemen empfohlen.
Seit im November 2022 der KI-basierte Dienst ChatGPT in Deutschland nutzbar ist, ist das Thema Künstliche Intelligenz endgültig in der praktischen Arbeit unserer Behörde angekommen. Es ist ein Querschnittsthema, das uns seitdem aus verschiedenen Richtungen, in unterschiedlichen Zusammenhängen und mit unterschiedlichen Zielsetzungen erreicht hat.
So haben wir uns beispielsweise an einer Prüfung der ChatGPT zugrundeliegenden KI-Modelle GPT 3.0 und 4.0 beteiligt und stellten fest, dass insbesondere das Training von generativen KI-Modellen mit riesigen Datenmengen aus dem Internet ohne Rechtsgrundlage erfolgt. Allerdings liegt die federführende Aufsicht für das Unternehmen OpenAI nicht bei uns, sodass wir im Alleingang keine datenschutzrechtliche Handhabe haben. Genauso geht es uns in Bezug auf die Ankündigung von Meta, die Daten der Nutzer ihrer Dienste Facebook und Instagram ebenfalls für das Training von generativen KI-Modellen Meta AI zu nutzen. Wir haben uns auf europäischer Ebene dafür stark gemacht, dass dies durch die zuständige federführende Aufsichtsbehörde in Irland geprüft wird.
Wo liegen aus Ihrer Sicht die zentralen Herausforderungen bei der Entwicklung und Anwendung von Künstlicher Intelligenz? Was macht eine vertrauenswürdige KI aus?
Als Landesdatenschutzbeauftragter steht für mich natürlich der Aspekt der Datenschutzkonformität im Vordergrund, die ich als einen Grundpfeiler für die Vertrauenswürdigkeit bezeichnen möchte. Zwar nicht alle, aber sehr viele KI-Modelle und KI-Systeme verarbeiten in sehr großem Umfang personenbezogene und oft auch besonders sensible personenbezogene Daten.
Insbesondere wenn man sich die Kategorien der Hochrisiko-KI-Systeme anschaut, wird deutlich, dass bei einigen dieser KI-Systeme aufgrund ihrer Anwendungsbereiche auch ein hohes Risiko für die informationelle Selbstbestimmung mit ihrem Einsatz einhergeht. Die zentralen Herausforderung bei der Entwicklung liegt nach unserem aktuellen Kenntnisstand an der enormen Menge von Daten, die für das Training benötigt werden. Da oft auf unstrukturierte Datensätze zurückgegriffen wird, lassen sich personenbezogene Daten nicht einfach vor dem Training entfernen.
Bei der Anwendung von KI-Systemen bestehen die Herausforderungen vor allem in der Gewährleistung der Grundsätze der Richtigkeit personenbezogener Ausgaben von KI-Modellen, der Transparenz der Verarbeitungen von personenbezogenen Daten durch diese Systeme und der Umsetzung von Betroffenenrechten. Beispielsweise kann gemäß der Datenschutzgrundverordnung jeder ein Unternehmen dazu auffordern, alle ihn betreffenden personenbezogenen Daten zu löschen. Aufgrund der besonderen technischen Architektur von KI-Modellen und KI-Systemen müssen neue Ansätze zur Gewährleistung dieser Rechte entwickelt werden.
Die Europäische Union hat mit dem „EU Artificial Intelligence Act“ eine umfangreiche Verordnung zur Regelung von Künstlicher Intelligenz eingeführt. Wie beurteilen Sie, dass es im globalen Wettbewerb völlig unterschiedliche KI-Regeln gibt?
Wichtig ist zunächst, dass die KI-Verordnung für die gesamte EU gilt und dadurch auf dem europäischen Markt einheitliche Wettbewerbsbedingungen bestehen. Globale Unterschiede kommen vermutlich in vielen Bereichen vor.
Die KI-Verordnung dient in erster Linie dem Schutz der Grundrechte und wesentlichen Prinzipen der Grundrechte-Charta, die gegenüber dem Wettbewerb vorrangig sind. Technische Entwicklungen verdienen nur dann eine Unterstützung im globalen Wettbewerb, wenn sie mit unseren Grundwerten in Einklang zu bringen sind. Der europäische Gesetzgeber hat hier durch die vielfältigen Einsatzmöglichkeiten von KI-Systemen ein Gefährdungspotenzial erkannt, das ihn sogar dazu bewogen hat, bestimmte KI-Praktiken zu verbieten – unabhängig davon, in welchem Land die Systeme entwickelt worden sind. Zu den verbotenen Praktiken gehören beispielsweise sogenanntes Social Scoring oder Emotionserkennung am Arbeitsplatz oder in Schulen.
Die Erfüllung der Anforderungen der KI-Verordnung führt zu KI-Systemen, die die europäischen Grundwerte berücksichtigen. Im besten Fall wird das auch in vielen anderen Staaten als Qualitätsmerkmal gewertet – ebenso wie Fahrzeuge aus Deutschland den Ruf haben, einen hohen Sicherheitsstandard zu gewährleisten.
Wo sehen Sie in Deutschland gelungene Beispiele für die Entwicklung und Anwendung von Künstlicher Intelligenz?
Ich denke, in Europa und Deutschland entstehen gerade sehr viele interessante Projekte. Eines, an dem wir selbst als Behörde beteiligt sind, ist das bereits erwähnte CRAI-Reallabor in Osnabrück. Forschungsprojekte wie das CRAI helfen dabei, dass vertrauenswürdige KI-Systeme entwickelt und dann auch rechtsicher eingesetzt werden können.
Auch in den Schulen hat KI auf vielfältige Weise Einzug erhalten, beispielsweise durch ChatGPT. Was würden Sie sich für die Schulpraxis wünschen?
Grundsätzlich begrüßen wir es, Schülerinnen und Schüler zum Thema Künstliche Intelligenz zu sensibilisieren. Dabei sollten sie auch lernen, mit KI-Systemen verantwortungsbewusst in Bezug auf ihre Daten und die Daten anderer umzugehen.
Der Einsatz von KI-Systemen setzt allerdings eine umfassende Prüfung der Rechtsgrundlagen sowie der erforderlichen technischen wie organisatorischen Schutzmaßnahmen zur Vermeidung von Risiken für die Rechte und Freiheiten der Betroffenen voraus – das können die Schulen nicht einzeln leisten. Hier sind das Kultusministerium und nachgeordnete Schulbehörden in der Pflicht, Schulen und Lehrkräfte zu unterstützen.
Abschließende Frage: Was würden Sie sagen? Künstliche Intelligenz – Chance oder Risiko?
In den Entwicklungen rund um KI steckt eine große Chance für Verwaltung, Wirtschaft, Forschung und uns alle – keine Frage. Trotzdem müssen wir natürlich die Risiken im Blick behalten. Ich bin aber zuversichtlich, dass es uns gelingt, diese Risiken einzufangen: durch eine angemessene Regulierung, grundrechtsgewährleistende technische Ausgestaltung und einen verantwortungsvollen Einsatz.
Vielen Dank für das Gespräch, Herr Lehmkemper!
Material des Monats: Mensch und KI: Brauchen wir (neue) Regeln?