KI und Recht – Eine Paarung mit Zukunft? Ein Ausblick auf die 63. Bitburger Gespräche (Mainz, 09.-10. Januar 2020)

Die Bitburger Gespräche behandeln in ihrer 63. Auflage Rechtsfragen der digitalen Transformation, namentlich „Rechtliche Herausforderungen Künstlicher Intelligenz“. Künstliche Intelligenz oder kurz „KI“ ist in aller Munde, durchdringt schon jetzt viele Bereiche unseres täglichen Lebens: KI fährt Auto, vergibt Bankkredite, verfasst journalistische Artikel und komponiert sogar Musik. Bedarf es einer Regulierung von KI? Welche Aufgabe kann Recht im digitalen Raum erfüllen?

Was aber ist KI?

„Der Begriff „Künstliche Intelligenz“ ist weniger präzise als es nötig wäre und sein Gebrauch vermuten lässt“, konstatiert der Rechtswissenschaftler Maximilian Herberger, Gründer des Instituts für Rechtsinformatik an der Universität des Saarlandes und Ehrenvorsitzender des EDV-Gerichtstags.[1] Tatsächlich ist „Künstliche Intelligenz“ seit einiger Zeit in aller Munde, aber kaum jemand weiß wirklich, was damit gemeint ist. Das liegt u.a. daran, dass der Begriff gerade im öffentlichen und politischen Diskurs nicht definiert, sondern stillschweigend vorausgesetzt wird, sogar im Rahmen der „Eckpunkte der Bundesregierung für eine Strategie Künstliche Intelligenz“.[2]

„Künstliche Intelligenz“ wird als Schlagwort häufig in Abgrenzung zu „normaler“, explizit programmierter Software verwendet. KI-Systeme sind implizit programmiert, die in ihnen enthaltenen Algorithmen erweitern die in ihrem ursprünglichen Datensatz angelegten Systemfunktionen selbst, sie „lernen“ also selbständig dazu. Eine allgemeingültige Definition von KI existiert (noch) nicht, dazu hat sicher nicht zuletzt der Umstand beigetragen, dass bereits ein Bedeutungsunterschied zwischen KI und seinem englischen Begriffspendent „Artificial Intelligence“ oder AI besteht: Während der Wortbestandteil „artificial“ etymologisch auf das lateinische „ars“ zurückgeführt wird und damit mit Herberger richtigerweise als „kunstgerecht“ zu übersetzen wäre, fehlt dem deutschen „künstlich“ in seiner heute gebräuchlichen Verwendung im Sinne von „nicht natürlich“ die wissenschaftstheoretische Anbindung.[3] Auch „Intelligenz“ und „intelligence“ sind nicht deckungsgleich: „Intelligenz“ ist die „Fähigkeit [des Menschen], abstrakt und vernünftig zu denken und daraus zweckvolles Handeln abzuleiten“,[4] wohingegen nach Legg und Hutter unter „intelligence“ landläufig „an agent’s ability to achieve goals in a wide range of environments“[5] zu verstehen ist.

Diesem rhetorisch „nüchternen“ Verständnis von „intelligence“ als „Eigenschaftsbegriff“[6] folgend, ist KI oder AI nicht als reiner Gegenentwurf zu „natürlicher“, also menschlicher Intelligenz zu begreifen, weil nicht eine eigenständige, vom Menschen unabhängige „Maschinen-Intelligenz“ gemeint ist, sondern vielmehr eine Verschmelzung von Mensch und Maschine im Sinne einer „extended intelligence“.[7] Die Kommission der Europäischen Union definiert KI/AI – unter völliger Missachtung eventueller etymologischer Unterschiede, die Definition ist auf Deutsch und Englisch quasi wortgleich – entsprechend:

„Künstliche Intelligenz (KI) bezeichnet Systeme mit einem „intelligenten“ Verhalten, die ihre Umgebung analysieren und mit einem gewissen Grad an Autonomie handeln, um bestimmte Ziele zu erreichen. KI-basierte Systeme können rein softwaregestützt in einer virtuellen Umgebung arbeiten (z. B. Sprachassistenten, Bildanalysesoftware, Suchmaschinen, Sprach- und Gesichtserkennungssysteme), aber auch in Hardware-Systeme eingebettet sein (z. B. moderne Roboter, autonome Pkw, Drohnen oder Anwendungen des „Internet der Dinge“).“[8]

KI liefert heute vorwiegend die menschliche Intelligenz ergänzende „Assistenzfunktionen“,[9] kann und soll den Menschen und dessen Arbeitskraft aber nicht vollständig ersetzen (sog. „schwache KI“), ist sie doch originär menschengemacht. Eigenständige Schlussfolgerungen und die Generierung von Wertentscheidungen (sog. „starke KI“), Fähigkeiten also, die als – im positivsten Sinn – zutiefst menschlich gelten, gehören (noch) nicht zum Standardrepertoire von KI-Systemen. Diese Erkenntnis ist wesentlich für den regulatorischen Umgang mit KI-Elementen wie vermeintlich „autonomen“ Algorithmen.

KI und Recht

Die für die Funktionalität von KI-Systemen verantwortlichen Algorithmen arbeiten mit computerlesbaren, „gelabelten“ Daten (z.B. Rastergrafiken). Je mehr Daten in einem bestimmten (Industrie‑, Lebens‑)Bereich verfügbar sind, desto schneller kann der Fortschritt durch KI in diesen Sachgebieten vorangetrieben werden. Im Umkehrschluss wirkt ein Mangel an computerlesbaren Daten KI-innovationshemmend, ein Umstand, der gerade die textintensive Rechtswissenschaft betrifft. Sog. „Natural Language Processing“, kurz NLP, ermöglicht zwar bereits die automatische Informationsextraktion aus juristischen Schriftsätzen. KI-Systeme können geschriebene Texte aber noch nicht „verstehen“, eine gute Nachricht für alle Juristen: Das computergenerierte Gesetz und die vollautomatisierte Rechtsprechung durch rechnergesteuerte Entscheidungsvorhersage werden bis auf Weiteres Zukunftsmusik bleiben.[10]

Nichtsdestotrotz bedeutet KI für das Recht schon jetzt zweierlei: einerseits die Chance einer Optimierung rechtlicher Prozesse sowie, andererseits, eine Menge (Rechts-)Probleme… Die Gefahr individueller Diskriminierung durch Algorithmen, Chancen und Risiken automatisierter Rechtsdurchsetzung, die Frage der Schadenshaftung im Zusammenhang mit autonomen und selbstlernenden Systemen sind nur einige der Themen, die die Rechtswissenschaft seit einiger Zeit beschäftigen. Die Interdependenz von „Legal Tech“ und Informationsrecht führt Rechtswissenschaftlern und -anwendern deutlich vor Augen, dass die rechtliche Einordnung eines künftigen Regelungsgegenstands ein (zumindest überblicksartiges) Verständnis von dessen Funktionen voraussetzt.[11] Dieses aber ist angesichts des rasanten technischen Wandels und der zunehmenden Komplexität technischer Systeme immer schwerer zu erlangen.

V.a. im Umfeld der „Industrie 4.0“, namentlich in den Bereichen Datenschutz und Datenzugang, Haftung und im Zusammenhang mit der Entstehung und Behandlung geistigen Eigentums, trifft Recht auf KI – eine Paarung, die bislang mehr Fragen als Antworten bereithält.

Algorithmenregulierung und Infrastrukturverantwortung

Die Anwendung von KI eröffnet Chancen, aber auch Risiken. Diese zwei Seiten der Medaille zeigt sich vor allem bei der Nutzung von Online-Anwendungen wie Amazon, Google, PayPal oder Facebook. Durch den Einsatz von sog. Cookies schaffen sich Unternehmen eine weitreichende Datenbasis über den Nutzer, bspw. über seine Herkunft, sein Alter, sein Einkommen, seinen Gesundheitszustand etc. Zur Auswertung dieser Daten dienen sog. Algorithmen, die aus den gesammelten Daten konkrete Schlussfolgerungen, bspw. in Form von Wahrscheinlichkeitsberechnungen, für das Unternehmen generieren. Durch Informationen über die gekauften Produkte, das Verhalten beim Abschluss von Geschäften oder den Wohnort können Unternehmen einen individuellen Preis für Flugtickets bestimmen, die Kreditwürdigkeit eines Kunden evaluieren oder den Beitrag zur Krankenkasse festlegen.[12]

So sehr die gesammelten Daten auch positive Effekte für den Nutzer mit sich bringen, bspw. dadurch, dass Produkte passgenau auf den Kunden zugeschnitten werden können, besteht auch Anlass zur Diskussion: Die Erstellung eines Nutzerprofils kann u.a. zu gleichheitswidrigen Diskriminierungen bestimmter Personengruppen führen.  Neben das Problem des Informationsgefälles zwischen Kunden und Unternehmen tritt auch die Gefahr, dass Unternehmen die gewonnenen Informationen gezielt einsetzen, um den Kunden zu manipulieren.[13]

Hier spielt der Bereich des Datenschutzrechts eine wichtige Rolle: Die Effizienz des Schutzes personenbezogener Daten bei der Verarbeitung durch Algorithmen wird von Kritikern der KI ebenso in Zweifel gezogen wie die grundsätzliche Möglichkeit der Einhaltung des Grundsatzes der Datenminimierung nach Art. 5 Abs. 1 lit. c der EU-Datenschutzgrundverordnung (DSGVO). Dürfen Daten, die gem. Art. 5 Abs. 1 lit. b DSGVO zu einem bestimmten Zweck erhoben wurden, zum „Training“ von KI-Systemen eingesetzt werden? Und brauchen wir zum Schutz grundrechtlich sensibler Bereiche eine „Algorithmen-Ethik“?[14]

Das Recht hat die Aufgabe, einen Ausgleich zu schaffen zwischen den Interessen der Unternehmen und Anliegen des Verbraucherschutzes. Die Forderung nach mehr Transparenz zugunsten des Nutzers tangiert dabei das Anliegen der Unternehmen, Betriebsgeheimnisse zu schützen. Diese fallen unter den Schutz der Berufsfreiheit gem. Art. 12 I GG.[15] Auf der anderen Seite besteht womöglich eine Schutzpflicht des Staates im Hinblick auf die Wahrung des Rechts auf informationelle Selbstbestimmung und die Verhinderung diskriminierender Behandlung. Nicht zuletzt stellt sich die Frage, ob der Grundrechtskatalog des Grundgesetzes für die Herausforderungen der Digitalisierung überarbeitet oder im Hinblick auf die unmittelbare Anwendbarkeit zwischen Unternehmen und Verbrauchern neu konzipiert werden muss.[16]

Auch das Demokratieprinzip des Grundgesetzes steht infrage: Durch die massive Datensammlung können Akteure im digitalen Raum in die Position kommen, die Meinungsbildung in der Bevölkerung zu steuern und damit Einfluss auf politische Entscheidungsprozesse zu erhalten.[17] Auch hier besteht die Forderung einer staatlichen Regulierung, damit wesentliche Entscheidungen vom Volke ausgehen (vgl. Art. 20 II 1 GG) und nicht von Künstlicher Intelligenz.[18]

Erste Schritte hat der Gesetzgeber durch das „Netzwerkdurchsetzungsgesetz (NetzDG)“ gemacht. Nun hat die Ethikkommission der Bundesregierung im Oktober 2019 einen umfassenden Vorschlagskatalog zur Algorithmenregulierung vorgelegt. Es wird u.a. die Einführung einer spezialisierten Aufsichtsbehörde, eine „Pluralismuspflicht“ für die Sozialen Medien und eine Regulierungsinitiative auf EU-Ebene gefordert.[19] Welche dieser Vorschläge die Bundesregierung umsetzen wird bzw. muss, wird in der kommenden Zeit Gegenstand intensiver Diskussionen in Rechtswissenschaft und Politik werden.

Haftung

Bereits im Jahr 2013 hat das Urteil des Bundesgerichtshofs (BGH) zur Autocomplete-Funktion der Suchmaschine Google (Urt. v. 14.5.2013, Az. VI ZR 269/12) eine wichtige rechtliche Grenze technischen Könnens aufgezeigt. Computer können Grundrechte verletzen, lautete – vereinfacht ausgedrückt – das Ergebnis dieses Rechtsstreits eines Unternehmers mit dem Internet-Giganten.[20] Google sei für Verfehlungen seiner Algorithmen verantwortlich, allerdings nur, wenn es von der Verletzung von Persönlichkeitsrechten Kenntnis erlange, so der BGH. Auch im Fertigungsumfeld der Industrie 4.0. stellen sich Haftungsfragen: Verbleibt die Letztverantwortung für Fehler im Produktionsprozess beim Menschen? Kann das deutsche Produkthaftungsgesetz auch auf KI-Systeme angewendet werden? Haftet der „Produzent“ für Schäden, die durch KI nutzende Geräte hervorgerufen werden? Und die vielleicht wichtigste Frage lautet: Reichen die derzeitigen (nationalen, internationalen) Haftungsgrundlagen aus, um den technischen Gefahren und rechtlichen Herausforderungen von KI zu begegnen?

Geistiges Eigentum

Die schier unendlichen Möglichkeiten, die KI schon heute bietet, veranlassen u.a. zu der Frage, ob maschinengenerierte Schöpfungen als „intellectual property“ geschützt werden können. „Unabhängig von der eher philosophischen Frage, ob Maschinen überhaupt kreativ sein können“,[21] wäre zu klären, ob der Einsatz von KI im Rahmen von Produktionsprozessen den Schutz durch die bekannten immaterialgüterrechtlichen Mechanismen (z.B. Patente, Urheberrechte) ausschließt. Probleme bereitet das hohe Maß an Autonomie, das KI-Systeme vielfach aufweisen. War das Ergebnis der Arbeit einer KI im Wesentlichen vorhersehbar, nutzte also der Programmierer die KI lediglich als Werkzeug zur Herstellung eines von ihm erdachten Werks? Oder agierte er als Initiator des Fertigungsvorgangs und überließ die Gestaltung ab einem bestimmten Punkt der „Maschine“? Wäre es überhaupt möglich und v.a. sachdienlich, die konkrete Arbeit einer Maschine patent- oder urheberrechtlich zu schützen?

Ausblick

Sollte der Fortschritt in KI-fähigen Bereichen befördert oder begrenzt werden? Ist der Staat bei der rechtlichen Einhegung von KI in der Pflicht oder bietet sich vielmehr der verstärkte Einsatz selbstregulatorischer Mechanismen durch technische Experten und KI-Anwender an? Wie können Wirtschaft und Industrie zu einer innovationsfördernden KI-Regulierung beitragen?

Diesen und vielen weiteren Fragen widmen sich die wie immer hochkarätigen Referenten aus Wirtschaft und Wissenschaft im Rahmen der 63. Bitburger Gespräche.

Literaturempfehlungen zum Thema KI und Recht

  • Maximilian Herberger, „Künstliche Intelligenz“ und Recht – Ein Orientierungsversuch, NJW 2018, 2825-2829.
  • Utz Schliesky, Digitalisierung – Herausforderung für den demokratischen Verfassungsstaat – Ein Beitrag zur Zukunftsfähigkeit des Grundgesetzes am Vorabend des 70. Geburtstags, NVwZ 2019, 693-701.
  • Mireille Hildebrandt, Smart Technologies and the End(s) of Law, Cheltenham/Northampton 2015.
  • Wolfgang Hoffmann-Riem, Verhaltenssteuerung durch Algorithmen – eine Herausforderung für das Recht, Archiv des Öffentlichen Rechts 142 (2017), 1-4
  • Herbert Zech, Künstliche Intelligenz und Haftungsfragen, ZfPW 2019, 198-219.
  • Platform Industrie 4.0, Künstliche Intelligenz und Recht im Kontext von Industrie 4.0, Ergebnispapier hier abrufbar.

Die 63. Bitburger Gespräche zum Thema „Rechtliche Herausforderungen Künstlicher Intelligenz“ finden am 09./10. Januar 2020 im „Atrium Hotel Mainz“ in Mainz statt. Die wissenschaftliche Leitung der Tagung übernehmen Frau Prof. Dr. Antje von Ungern-Sternberg und Herr Prof. Dr. Benjamin Raue.

Weitere Informationen sowie das Programm der Veranstaltung finden Sie hier.

Quellen:

[1] Maximilian Herberger, „Künstliche Intelligenz“ und Recht – Ein Orientierungsversuch, NJW 2018, 2825-2829 (2825).

[2] Abrufbar unter: www.bmwi.de/Redaktion/DE/Downloads/E/eckpunktepapier-ki.pdf.

[3

] Vgl. Duden, Art. „künstlich“, abrufbar unter: www.duden.de/rechtschreibung/kuenstlich, sowie die Ausführungen bei Maximilian Herberger, „Künstliche Intelligenz“ und Recht – Ein Orientierungsversuch, NJW 2018, 2825-2829 (2826).

[4

] Duden, Art. „Intelligenz“, abrufbar unter: www.duden.de/rechtschreibung/Intelligenz.

[5] Shane Legg/Marcus Hutter, Universal Intelligence: A Definition of Machine Intelligence, Minds & Machines 17 (2007), 391-444 (402).

[6] Maximilian Herberger, „Künstliche Intelligenz“ und Recht – Ein Orientierungsversuch, NJW 2018, 2825-2829 (2826).

[7

] So der Vorschlag von Joichi Ito, Resisting Reduction: A Manifesto, Version 1.2, 13.10.2017, abrufbar unter: jods.mitpress.mit.edu/pub/resisting-reduction.

[8

] Mitteilung der Kommission an das Europäische Parlament, den Europäischen Rat, den Rat, den Europäischen Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen, Künstliche Intelligenz für Europa, 25.4.2018, COM(2018) 237 final, Ziff. 1, abrufbar unter: eur-lex.europa.eu/legal-content/DE/TXT/.

[9] „Künstliche Intelligenz ist besser als natürliche Dummheit“, Interview mit Wolfgang Wahlster, Computerwoche, 17.5.2015, abrufbar unter: computerwoche.de/a/kuenstliche-intelligenz-ist-besser-als-natuerliche-dummheit,3210426.

[10

] Vgl. Paul von Bünau, Künstliche Intelligenz im Recht – Was geht, was nicht – und wo geht die Reise hin?, Wolters Kluwer, News, 3.2.2018, abrufbar unter: www.wolterskluwer.de/newsroom/details/kuenstliche-intelligenz-im-recht-was-geht-was-nicht-und-wo-geht-die-reise-hin/.

[11] Vgl. Maximilian Herberger, „Künstliche Intelligenz“ und Recht – Ein Orientierungsversuch, NJW 2018, 2825-2829 (2825).

[12] Niko Härting, Profiling: Vorschläge für eine intelligente Regulierung, CR 2014, 528 (531).

[13] Ebd; Christian Ernst, Algorithmische Entscheidungsfindung und personenbezogene Daten, JZ 2017, 1026 (1027).

[14

] So die Forderung des Internet-Unternehmers Stephan Noller, Relevanz ist alles: Plädoyer für eine Algorithmen-Ethik, FAZ.NET, 22.10.2012, abrufbar unter: www.faz.net/aktuell/feuilleton/debatten/plaedoyer-fuer-eine-algorithmen-ethik-relevanz-ist-alles-11934495.html.

[15] Vgl. BVerfGE 115, 205 (230); 128, 1 (56).

[16] Utz Schliesky, Digitalisierung – Herausforderung für den demokratischen Verfassungsstaat, NVwZ 2019, 693 (701).

[17] Utz Schliesky, aaO, 693 (697).

[18] Vgl. Volker Boehme-Neßler, Die Macht der Algorithmen und die Ohnmacht des Rechts, NJW 2017, 3031, 3036.

[19

] Zum Bericht: datenethikkommission.de/gutachten/; Zusammenfassung auf netzpolitik.org/2019/regierungsberaterinnen-fordern-strengere-regeln-fuer-daten-und-algorithmen/ (Stand 29.10.2019).

[20

] Vgl. Niko Härting, Google haftet für seine Suchvorschläge, LTO, 14.5.2013, abrufbar unter: www.lto.de/recht/hintergruende/h/bgh-urteil-vi-zr-269-12-google-autocomplete-funktion-persoenlichkeitsrecht/.

[21] Plattform Industrie 4.0, Künstliche Intelligenz und Recht im Kontext von Industrie 4.0, Ergebnispapier, S. 21.