Übernehmen die Roboter?

Es gibt wohl kaum ein Thema, welches derzeit so intensiv diskutiert wird wie die Künstliche Intelligenz von Algorithmen. Egal unter welcher Bezeichnung, ob „K.I.“, „A.I.“, „Künstlicher Intelligenz“ oder „Artificial Intelligence“, das Thema polarisiert in Wissenschaft, Politik und gesellschaftlichem Diskurs.

Während auf der einen Seite dystopische Horrorszenarien à la „Matrix“ beschworen werden[1], sieht die andere Seite in der Technologie eine Revolution in allen Lebensbereichen.

Frei von jeglicher Wertung kann nur eines festgehalten werden: Bei der künstlichen Intelligenz handelt es sich keinesfalls um ein vorübergehendes Phänomen. Dies beweist zum einen der enorme Anstieg an Investitionen in KI-Start-Ups, was zu einer Investitionssumme von 15 Milliarden USD im Jahr 2017 geführt hat, eine fünfzigfache Steigerung in sechs Jahren. Erwartet wird ein Anstieg auf bis zu 70 Milliarden USD im nächsten Jahr[2].

Spätestens nun sollte auch dem größten Kritiker die Zukunftsfähigkeit dieses Themas, mit Blick auf den Strategiewechsel von Google von „Mobile First“ (2011-2017) zu „A.I. First“[3] auffallen, wenn er die Entwicklung der mobilen Technologien nicht auch als „Hype“ abtun will.

Doch woher kommt diese jüngste Entwicklung? Um diese Frage zu klären, sollte zuerst verstanden werden, was sich hinter dem Begriff verbirgt.

Schon die reine Begriffsbestimmung stellt die Diskussion vor erhebliche Schwierigkeiten, da das Gebiet breit ist und bereits (nicht-künstliche) Intelligenz schwierig zu definieren ist. Einigkeit besteht darin, dass die Technologie ein Teilgebiet der Informatik ist, die darauf abzielt, die menschliche Intelligenz digital zu rekonstruieren, um „Agenten“[4] zu erschaffen, die Probleme selbstständig lösen können[5].

Dabei unterscheidet man klassisch zwischen „starker“ und „schwacher“ K.I. Die „starke“ K.I. soll eine möglichst akkurate Abbildung und Imitation des Menschen bzw. der Vorgänge in seinem Gehirn erreichen. Als konstituierende Merkmale werden hier das menschliche Bewusstsein und die menschliche Empathie angeführt[6]. Allerdings gibt es derzeit noch kein Forschungsprojekt, das dieser „vollendeten“ Form der künstlichen Intelligenz nah gekommen ist[7].

Viel weiter ist man allerdings im Bereich der „schwachen“ K.I., die den meisten als „Narrow A.I.“ wahrscheinlich schon einmal über den Weg gelaufen ist. Hier handelt es sich eben nicht um eine Imitation des menschlichen Gehirns, sondern um Algorithmen, die eine bestimmte, abgegrenzte Problemstellung lösen sollen[8]. Zentrales Merkmal ist hier immer die Lernfähigkeit des Programms.

Künstliche Intelligenz ist grob also zunächst als (versuchte) digitale Abbildung der menschlichen Intelligenz zusammenzufassen, die sich insbesondere mit der Lernfähigkeit des Menschen befasst.

Gerade bei diesem Aspekt wird es interessant, denn mit dem Streben nach der gleichwertigen Lernfähigkeit von Algorithmen kommt ein neuer Begriff ins Spiel, der im Diskurs oft fälschlicherweise neben der künstlichen Intelligenz eingeordnet wird, eigentlich aber ein Teilgebiet dieser Forschung ist: Das „maschinelle Lernen“.

Dieses wird wohl nicht zu unrecht als „wichtigste Basistechnologie unseres Zeitalters“[9] bezeichnet, denn es ermöglicht all die Anwendungen, die derzeit als disruptiv und revolutionär bezeichnet werden.

Es bezeichnet Methoden, die mithilfe von Lernprozessen Zusammenhänge in bestehenden Datensätzen erkennen und Vorhersagen treffen können. Die Fähigkeit, Probleme zu lösen, beruht dabei auf einem Training mit Datensätzen, sodass der Entwickler sein Wissen nicht mehr codieren und erläutern muss. Dadurch entsteht eine Selbstständigkeit des Algorithmus, der eine nie bekannte Komplexität und Breite von Anwendungen erlaubt[10].

Einerseits dadurch, dass der Programmierer nicht mehr alle Arbeitsschritte vorgeben muss, andererseits dadurch, dass der Algorithmus komplexe Probleme und Lösungen erschließen kann, die der menschliche Programmierer zwar weiß, aber nicht (im Code) ausdrücken kann (sog. Polanyi-Paradox[11]). Dabei entwickelt das Programm eigene, nicht vorgegebene, Parameter (z.B. „ein Hund hat vier Beine und Fell“).

Dieses „Lernen“ kann auf drei verschiedene Arten stattfinden:

Das „überwachte Lernen“ („Supervised Learning“) steht dabei dem Lernprozess des Menschen am nächsten, da es auf einem beschrifteten Trainingsdatensatz basiert. Dabei werden Inputs einem bestimmten Output zugeordnet (Bsp.: Fahrzeugposition und Geschwindigkeit kombiniert mit dem Verkehrsfluss ergeben eine intelligente Ampelschaltung)[12]. Besagter Trainingsdatensatz erfordert selbstredend eine arbeitsintensive Erstellung seitens des Programmierers.

Das „unüberwachte Lernen“ („Unsupervised Learning“) dagegen findet eigenständig Muster/ Zusammenhänge in bestehenden Datensätzen, wobei der Algorithmus selbst Kategorien für die einzelnen Eigenschaften der Daten finden muss. Beispielsweise müssten bei der Sortierung von Tierfotos nicht die Kategorisierung nach Tierarten geschehen, der Algorithmus könnte auch selbstständig die Fotos in die verschiedenen Fellfarben unterteilen und so eine Kategorisierung vornehmen[13].

Große Hoffnung steckt auch in der Möglichkeit des „verstärkenden Lernens“ („Reinforcement Learning“). Gegeben ist bei dieser Methode ein Problem für das eine Strategie zur Lösung erlernt werden soll. Dem Programm sind hierbei ein gewisser status-quo, bestimmte Handlungsalternativen und Umweltbedingungen des Problems bekannt, während die optimale Verhaltensweise unbekannt ist[14]. Nimmt man das Beispiel eines Schachspiels so wäre die Position auf dem Schachfeld der jeweiligen Figur der Status quo, die Handlungsalternativen die möglichen Schachzüge und die Umweltbedingungen die Regeln des Schachspiels. Das Programm spielt alle Handlungsalternativen im Rahmen der Spielregeln durch und trifft letztendlich auf Basis von Strafe (Figur wird geschlagen) und Belohnung (Figur schlägt andere Figur) eine Entscheidung. Dabei sind heute schon Algorithmen in der Lage professionelle Spieler zu schlagen (z.B. „AlphaZero“ von Google Deep Mind). Ein kommerzielles Beispiel ist MSN.com, bei der eine künstliche Intelligenz die Auflistung der Artikel steuert, basierend auf Klickzahlen als Belohnung[15].

Weiterhin gibt es zusätzlich das sogenannte Deep Learning, welches auf künstlichen neuronalen Netzen basiert. (Das Phänomen „Deep Learning“ wird in einem der kommenden Blogartikel thematisiert.)

Dem aufmerksamen Leser mag schon aufgefallen sein, dass künstliche Intelligenz und maschinelles Lernen untrennbar mit Daten verbunden ist. Dies erklärt auch, warum sich die Technologie erst jetzt durchsetzen konnte.

Forschungen am maschinellem Lernen ist keineswegs ein aktuelles Thema. Schon seit den 1940er Jahren besteht diese, sodass bereits 1956 auf einer Konferenz am amerikanischen Dartmouth College Forscher über dieses Thema referierten und diskutierten[16].

Die Möglichkeiten, die Entwicklern heute zur Verfügung stehen unterscheiden sich jedoch dramatisch von den damals vorherrschenden Rahmenbedingungen. Wie schon angesprochen ist heutzutage der Zugang zu Daten viel einfacher und diese sind in immensen Umfang vorhanden (Stichwort: „Big Data“), um die selbstlernenden Algorithmen zu trainieren. Auch können die erforderliche Rechenleistung und verfügbarer Speicherplatz deutlich günstiger bereitgestellt werden, wobei die Anforderungen an die Hardware immer höher werden und auch die Forschung zu immer größeren Errungenschaften greift (Stichwort: „Quantencomputer“). Zusätzlich wird Entwicklern, die nicht auf große Ressourcen zurückgreifen können, durch Cloud-Dienste für die Rechenleistung und einem vereinfachten Wissensaustausch durch Open-Source-Tools und Bibliotheken[17] der Einstieg und die Arbeit in diesem Bereich ermöglicht.

So viel zur Funktionsweise, zur Entwicklung und zum Stand der Dinge der künstlichen Intelligenz. Doch vor welchen Problemen steht die Technologie und wie weit reichen die positiven und auch negativen Effekte der Technologie im Hinblick auf unser Leben?

In Fachkreisen werden im Wesentlichen zwei große Probleme diskutiert. Zum einen geht es um die gezielte Manipulation des Algorithmus. Wenn die Parameter eines Programms bekannt sind können durch wenige Handgriffe die Ergebnisse manipuliert werden. Nimmt man ein Bilderkennungsprogramm, das bestimmte Bildpunkte analysiert, um zu determinieren, ob auf dem Bild eine Katze abgebildet ist, so ist es gelungen, eben solches Programm davon zu überzeugen, dass eine Katze auf dem Foto abgebildet ist, obwohl es sich um Guacamole handelte, allein durch Kenntnis und Manipulation der gescannten Bildpunkte (Katzen-Guacamole-Beispiel)[18].

Ein weiteres Problem ist das sogenannte „Black-Box-Problem“[19]. Es beschreibt die Entscheidungsfindung der künstlichen Intelligenz als intransparent, da die Parameter auf denen die Entscheidung basiert, nicht bekannt sind, weil sie nicht vom Entwickler vorgegeben, sondern selbst angelernt sind. Gerade in sensiblen Bereichen kann damit die jeweilige Entscheidung in Konflikt mit ethischen Grundsätzen stehen. Denkbar ist ein Employment-Tool, welches faktisch nach Alter, Geschlecht und Rasse unterscheidet und diskriminiert. Warum sollte man einer künstlichen Intelligenz solches Entscheidungsverhalten zubilligen, während die selbe Entscheidung durch einen Menschen untersagt wäre?

Zu diesen Problemen, die der Natur der Technologie geschuldet sind, ist die Gefahr des Missbrauchs, welcher durch die Technologie teilweise erst möglich gemacht wird, wie zum Beispiel die Massenüberwachung durch Kameraaufnahmen in Verbindung mit Gesichtserkennung. Überwachung in diesem Stil wäre durch menschliche Hand nicht möglich.

Auch sind etwaige Erfolgsmeldungen über die künstliche Intelligenz mit dem Hintergedanken zu genießen, dass statistischer Erfolg keinesfalls bedeutet, dass keine Fehlentscheidungen mehr getroffen werden.

Zu den ökonomischen Auswirkungen der Technologie:

Grundlegend wird diskutiert, ob die künstliche Intelligenz überhaupt die Produktivität von Arbeitsschritten fördern wird. Die meisten Akteure in der sogenannten „Brynjolfson-Gordon-Debatte“[20] sehen dabei klar das Potential der Produktivitätssteigerung, was die große Investitionsbereitschaft in diesem Bereich (s.o) belegt. Konkret erwartet McKinsey einen KI-induzierten jährlichen Produktivitätszuwachs von 0,8%-1,4%[21].

Die große Frage hierbei ist, ob der Produktionsfaktor Arbeit als solcher ersetzt wird, wobei der künstlichen Intelligenz bildlich die Rolle der „neuen Elektrizität“ zugesprochen wird oder ob die Produktivität des Arbeitsfaktors durch das Zusammenspiel von Mensch und K.I. gesteigert wird und die K.I. das „neue Öl“ darstellt[22].

Bevor versucht wird diese Frage aufzuklären, ist festzuhalten, dass sich alle Akteure einig sind, dass Anwender entsprechend ausgebildet werden, um im Umgang mit der Technologie Produktivitätsnachteile zu vermeiden[23] (ein Wink mit dem Zaunpfahl für die juristische Bildung?).

Zum jetzigen Zeitpunkt wird von den meisten Experten erwartet, dass die sogenannte Substitution als Einflussfaktor[24], also der vollständige „Ersatz des Menschen“ vorerst nur bei rein repetitiven Arbeiten eintreten wird. Gemünzt auf die juristische Arbeit sind das vor allem die Recherche und Auswertung von Dokumenten.

Aber auch hier stehen dem Durchbruch der Technologie zurzeit noch institutionelle Hürden im Weg: Kritisiert wird, dass Daten nicht in hinreichend verarbeiteter Form zur Verfügung stehen, die zum Beispiel die Recherche von Gerichtsurteilen erschweren.

Jedoch hemmt auch der technologische Fortschritt die Autonomie der Algorithmen und macht den Menschen (noch) unverzichtbar. So gelingt es bis heute keinem Programm einen freien Sachverhalt völlig zu erfassen, da die Sprache von den Algorithmen zwar erkannt wird, das Geschehene aber nicht tiefgehend „verstanden“ wird[25].

Nachdem dem Leser auf dem Weg zum Staatsexamen nun hoffentlich die Angst vor einer trostlosen Zukunft in Bedeutungslosigkeit genommen wurde, soll weiterhin ein Licht auf die positiven Einflussfaktoren gerichtet werden.

Während freie Sachverhalte nicht erfasst werden können, sind standardisierte Falltypen heute schon in Bearbeitung durch Algorithmen. Eindrucksvoll beweisen dies die Anbieter, die Flugrechte ihrer Nutzer durchsetzen. Hier spürt der Endnutzer heute schon die Auswirkungen der sogenannten Preiselastizität[26]: Die Automatisierung senkt die Unkosten für diese Dienstleistungen, wodurch bei einem funktionierendem Wettbewerb der Preis der Dienstleistung sinkt, sodass mehr potentielle Nutzer einen Zugang zu dieser haben und – bezogen auf den juristischen Bereich – zu ihrem Recht (Stichwort: #accesstojustice).

Zusammenfassend:

Künstliche Intelligenz ist nicht gleich künstliche Intelligenz. Die Technologie, bei der zurzeit insbesondere das maschinelle Lernen immer wieder Subjekt technischer Durchbrüche ist, wird schon seit geraumer Zeit erforscht, erlebt im Moment aber vor allem durch die Bereitstellung großer Datenmengen und Rechenleistung eine steile Entwicklung. Während die künstliche Intelligenz selbst technisch noch lange nicht ausgereift ist und die Auseinandersetzung mit einigen inhärenten (ethischen) Problemen unerlässlich ist, müssen auch die Umweltbedingungen angepasst werden.

Findet diese Entwicklung statt, stehen Generationen von Juristen in Zukunft starke und effektive Anwendungen zu Seite, die sie keinesfalls ersetzen werden, bei richtiger Schulung aber eine vielseitigere, und für eine größere Adressatengruppe erschwingliche, Arbeit ermöglichen wird.

Autor: Mathias Schuh

Quellen:

[1] So z.B. Tesla-Gründer Elon Musk (abgerufen 02/2019): https://medium.com/@duncanjefferies/elon-musks-neural-lace-vs-life-as-an-ai-s-pet-cat-e515c4707130.

[2] CB Insights. (2018). Top Artificial Intelligence trends to watch in 2018(abgerufen 02/2019): https://www.cbinsights.com/research/report/artificial-intelligence-trends-2018/.

[3] Google-CEO Sundar Pichai bei einer Rede beim Google-Pixel Launch 2017. (abgerufen 02/2019) https://www.youtube.com/watch?v=5WRJYEA-mwY.

[4] Franklin, S., & Graesser, A. (1997). Is It an agent, or just a program?: A taxonomy for autonomous agents. In J. Müller, M. J. Wooldridge, & N. R. Jennings (Hrsg.), Intelligent Agents III Agent Theories, Architectures, and Languages (S. 1193).

[5] Carbonell, J. G., et al. (1983). An Overview of Machine Learning. In R. S. Michalski, J. G. Carbonell, & T. M. Mitchell (Hrsg.), Machine Learning: An Artificial Intelligence Approach (S. 3–23). Palo Alto, Kalifornien, USA: TIOGA Publishing Co.

[6] Pennachin, C., & Goertzel, B. (2007). Contemporary approaches to artificial general intelligence. In B. Goertzel & C. Pennachin (Hrsg.), Artificial General Intelligence: AGIRI – Artificial General Intelligence Research Institute (S. 1–28). Berlin: Springer.

[7] Buxmann (Hrsg.) in Künstliche Intelligenz: Mit Algorithmen zum wirtschaftlichen Erfolg (2018), Berlin: SpringerGabler, S. 6.

[8] Goertzel, B. (2010). Toward a formal characterization of real-world general intelligence. In E.
Baum, M. Hutter, & E. Kitzelmann (Hrsg.), Proceedings of the 3rd Conference on Artificial General Intelligence, AGI (S. 19–24). Atlantis Press.

[9] Brynjolfsson, E., & McAfee, A. (2017). The business of artificial intelligence. Harvard Business Review (abgerufen 02/2019): https://hbr.org/cover-story/2017/07/the-business-of-artificial-intelligence.

[10] Buxmann (Hrsg.) in Künstliche Intelligenz: Mit Algorithmen zum wirtschaftlichen Erfolg (2018), Berlin: SpringerGabler, S. 8.

[11] Polanyi, M. (1966). The tecit dimension. Gloucester: Peter Smith.

[12] Buxmann (Hrsg.) in Künstliche Intelligenz: Mit Algorithmen zum wirtschaftlichen Erfolg (2018), Berlin: SpringerGabler, S. 10ff.

[13] Buxmann (Hrsg.) in Künstliche Intelligenz: Mit Algorithmen zum wirtschaftlichen Erfolg (2018), Berlin: SpringerGabler, S. 10.

[14] Buxmann (Hrsg.) in Künstliche Intelligenz: Mit Algorithmen zum wirtschaftlichen Erfolg (2018), Berlin: SpringerGabler, S. 10.

[15] Brynjolfsson, E., & McAfee, A. (2017). The business of artificial intelligence. Harvard Business Review (abgerufen 02/2019): https://hbr.org/cover-story/2017/07/the-business-of-artificial-intelligence.

[16] Dartmouth College. (1956). Summer research project on artificial intelligence (Vox of Dartmouth).

[17] Buxmann (Hrsg.) in Künstliche Intelligenz: Mit Algorithmen zum wirtschaftlichen Erfolg (2018), Berlin: SpringerGabler, S. 10.

[18] Anthalye, A., Engstrom, L., Ilyas, A., & Kwok, K. (2017). Fooling neural networks in the physical world with 3D adversarial objects (abgerufen 01/2019): http://www.labsix.org/physical-objects-that-fool-neuralnets/.

[19] Buxmann (Hrsg.) in Künstliche Intelligenz: Mit Algorithmen zum wirtschaftlichen Erfolg (2018), Berlin: SpringerGabler, S. 17.

[20] Brynjolfsson, E., Rock, D., & Syverson, C. (2017). Artificial intelligence and the modern productivity paradox: A clash of expectations and statistics (abgerufen 01/2019): http://www.nber.org/papers/w24001.

[21] OECD. (2017a). OECD compendium of productivity indicators 2017 (abgerufen 02/2019) https://read.oecd-ilibrary. org/economics/oecd-compendium-of-productivity-indicators-2017_pdtvy-2017-en.

[22] Vgl. Bünau im Interview mit Breidenbach in „ReThinking Law“, Ausgabe Oktober 2018, Düsseldorf: Handelsblatt Fachmedien, S. 8.

[23] Choudhury, P., Starr, E., & Agarwal, R. (2018). Different strokes for different folks: Experimental evidence on complementarities between human capital and machine learning. Harvard Business School (abgerufen 02/2019): http://www.hbs.edu/faculty/Publication%20Files/18-065_d6c7b808-1a3e-4515-9852-9fb52d4be9a3.pdf.

[24] Brynjolfsson, E., & Mitchell, T. (2017). What can machine learning do? Workforce Implications. Science, 358(6370), 1530–1534 (abgerufen 02/2019:) https://doi.org/10.1126/science.aap8062.

[25] Vgl. Bünau im Interview mit Breidenbach in „ReThinking Law“, Ausgabe Oktober 2018, Düsseldorf: Handelsblatt Fachmedien, S. 7.

[26] Brynjolfsson, E., & Mitchell, T. (2017). What can machine learning do? Workforce Implications. Science, 358(6370), 1530–1534 (abgerufen 02/2019:) https://doi.org/10.1126/science.aap8062.