Die vierte Industrielle Revolution ist mit vielen Ängsten verbunden, manche davon mögen berechtigt sein, andere wiederum nicht – fraglich bleibt dennoch, welche Fähigkeiten von Robotern das menschliche Dasein verändern könnten.
Stärken und Schwächen Künstlicher Intelligenz
Computer, so wie wir sie kennen, stehen für uns in Verbindung mit der Darbietung vielfältigen Wissens und komplexen Berechnungen, die innerhalb kürzester Zeit abrufbar sind beziehungsweise getätigt werden können. So ist beispielsweise das Berechnen einer invertierten Matrix für den Menschen deutlich schwierig, für Künstliche Intelligenz dagegen ein leichtes.
Roboter ermüden nicht bei der Ausführung stereotyper Tätigkeiten. Beim Durchsuchen der Datenbanken unterlaufen ihnen keine Flüchtigkeitsfehler. Sie wirken „geduldig“ und sind arbeitsam, da sie Tag und Nacht einsatzfähig sind. Auch kraftintensive und gesundheitsgefährdende Tätigkeiten können von Robotern übernommen werden, beispielsweise die fachgerechte Entsorgung von Atommüll. Roboter sind zunehmend fähig, präzise Tätigkeiten auszuüben, deren Überwachung durch den Menschen erfolgt. Dies hat unter anderem im medizinischen Sektor große Vorteile, denkt man zum Beispiel an Nanobots.
Auch die Tatsache, dass Roboter keine persönlichen Belange, keine Vorurteile, besitzen, sollte berücksichtigt werden, vor allem bei der Überlegung eines Einsatzes im militärischen Bereich. Bei neuen Informationen ändert beziehungsweise stoppt Künstliche Intelligenz die eingeleitete Handlung und entscheidet anhand aller nun vorliegenden Informationen neu – etwas, das dem Menschen deutlich schwerer fällt.
Doch die auf Algorithmen basierenden Mechanismen stoßen derzeit noch an Grenzen – Grenzen, die die Fähigkeiten von Robotern bislang einengen.
Entscheidungsfindung und schlussfolgerndes Denken
Je komplexer das Aufgabenfeld, desto häufiger kann es beim Treffen von Entscheidungen sowie Schlussfolgerungen zu Fehlern durch Künstliche Intelligenz kommen (Wolfangel, 2016), weil zum Beispiel bestimmte Teilaspekte, die im Gespräch zwischen zwei Menschen entscheidungstragend sein können, nicht berücksichtigt werden, oder weil die Emotionalität nicht erfasst werden kann. Einen (zaghaften) Ausblick diesbezüglich bieten Systeme, die ähnlich neuronaler Netzwerke beim Menschen erfahrungsbasiert lernen.
Problematisch ist die präzise diagnostische Justierung, etwa bei der Einordnung der Kreditwürdigkeit von Menschen, um in Abhängigkeit von der Wahrscheinlichkeit der Kreditrückzahlung (ohne insgesamt zu wenig Kredite zu vergeben), eine optimale Klassenzuordnung gewährleisten zu können. Noch mehr Gewicht hat diese Problematik bei der Diagnosestellung schwerwiegender Erkrankungen, um Fehldiagnosen so gering wie möglich zu halten.
Kreatives Denken
In der Natur der Sache liegt, dass Künstliche Intelligenz und Kreativität schwer zueinander finden könnten. Basierend auf Wahrscheinlichkeiten können zwar naheliegende Entscheidungen gefällt werden, radikales „Um die Ecke“-Denken und Lösungsansätze wider jeder Logik werden dagegen vermutlich kaum möglich sein. Solche menschlichen Fähigkeiten werden von Robotern vermutlich kaum übernommen werden können.
Moral
Entscheidungen, die Künstliche Intelligenz fällt, sollten in irgendeiner Weise vorab von den Entwicklern bedacht worden sein. Doch gerade bei Entscheidungen, die eine moralische beziehungsweise ethische Komponente haben, wird dies schwierig (Massachusetts Institute of Technology, o.A.). Für wen etwa sollte sich das autonome Fahrsystem entscheiden, wenn ihm nur noch die Wahl bleibt zwischen Überleben des Insassen, dem Nichtüberfahren eines Ehepaares auf dem Fußgängerüberweg oder dem Ausweichen einer Gruppe von Kindern? Entscheidungen, so schwer sie auch sein mögen, fällt unser Gehirn in Extremsituationen sekundenschnell. Wie soll man demnach verfahren, wenn man es vorab programmieren müsste?
Ein möglicher Forschungsansatz, der allerdings noch in den Anfängen steckt, ist, dass die Roboter explizit einprogrammierte Regeln befolgen und anhand derer entscheiden (Deng, 2015). Es sei ein Unding, so Ronald Arkin vom Georgia Institute of Technology, würde ein autonomer Militärroboter erst während der Mission herausfinden, welchen ethischen Grundsätzen er zu folgen hätte. Mit Unterstützung des US-Verteidigungsministeriums arbeitet Arkin an einem Programm, welches sicherstellt, dass diese Militärroboter nach internationalen Einsatzrichtlinien agieren. So sollen die sogenannten „ethical governors“ sicherstellen, ob zum Beispiel ein Raketenabschuss zulässig sei und nur dann eine Ausführung dessen erlauben.
Empathie
Diskutiert wird ebenfalls, inwiefern Roboter empathische Fähigkeiten in sich tragen könnten. Es wird an „emotionalen Robotern“ gearbeitet, die zum derzeitigen Stand der Dinge rudimentäre Emotionen spiegeln können – wie zum Beispiel „Pepper“ (Feiler, 2015), der Emotionen anhand von Gesichtsausdrücken erkennen und darauf reagieren kann. Komplexe Emotionen dürften demgegenüber schwieriger umzusetzen sein.
Herausforderung: Mensch-Technik-Interaktion
Seit Technik das menschliche Dasein bereichert hat, kann es zu Missverständnissen in der Mensch-Technik- beziehungsweise Mensch-Computer-Interaktion kommen. So sind zum Beispiel viele Flugzeugunglücke auf solche Missverständnisse zurückzuführen, etwa wenn der Pilot die Signale des Autopiloten fehlgedeutet hat, ihm also keinen oder bedingungslos Glauben geschenkt hat. Je komplexer die Aufgabenfelder von Robotern sind, umso wichtiger ist, dass die Signale der Künstlichen Intelligenz seitens des Menschen korrekt gedeutet werden. Der Gestaltung des User Interface (umgangssprachlich Benutzeroberfläche, wie z.B. Eingabemaske, Computerrückmeldungen etc.) kommt dabei besondere Bedeutung zu, ebenso wann der Mensch in automatisierte Prozesse eingreifen sollte und inwieweit er dem System Vertrauen schenken kann und wird.
Fehldiagnosen im medizinischen Bereich oder Unfälle, die passieren, zum Beispiel beim autonomen Fahren, sollten stets geprüft und hinterfragt werden. Allerdings sollte aber auch immer die Häufigkeit von Fehldiagnosen, Unfällen etc., verursacht durch den Menschen, gegenübergestellt werden, um eine Wahrnehmungsverzerrung zu vermeiden.
Ein weiteres Aufgabenfeld in dem Zusammenhang wird sein, wie sich die Kommunikation zwischen Robotern gestalten sollte.
Ergänzung der Fähigkeiten von Robotern und Menschen
In einigen Bereichen scheinen die Fähigkeiten von Robotern die der Menschen zu übersteigen, beispielsweise wenn es um Wissensspeicherung oder um komplexe Berechnungen, Präzision, Ausdauer und Vorurteilsfreiheit geht. Demgegenüber scheinen unkonventionelle Überlegungen, ethisches Bewusstsein, Innovationsreichtum, Kreativität und Empathie vor allem Besonderheiten zu sein, die dem Menschen zunächst vorbehalten bleiben könnten und die entsprechend gefördert werden sollten.
Zusammenfassend lässt sich sagen, dass Künstliche und humane Intelligenz einander ergänzen und dass auch ethische Überlegungen beim Einsatz von Robotern immer im Vordergrund stehen sollten. Auf der anderen Seite könnten Roboter eine soziale Norm beziehungsweise ein kulturelles Ideal auferstehen lassen: der vorurteilsfreie und emotional beherrschte Mensch.
Welche Jobs zukünftig von Künstlicher Intelligenz übernommen werden könnten und bei welchen die Fähigkeiten von Robotern hinter denen der Menschen vermutlich zurückbleiben, wird im nachfolgenden Artikel zur Arbeitswelt 4.0 unserer Serie „Roboter und Psyche“ diskutiert.
Quellen:
- Deng, B. (2015). ROBOTER-ETHIK: Funktioniert die Ethik an Bord?. Spektrum.de. Verfügbar unter: http://www.spektrum.de/news/koennen-wir-roboter-mit-ethik-erschaffen/1356774 [26.11.2016].
- Feiler, H. (2015). Künstliche Gefühle: Wenn der Roboter emotional wird. Frankfurter Allgemeine. Verfügbar unter: http://www.faz.net/aktuell/feuilleton/pepper-der-emotionale-roboter-13656429.html [26.11.2016].
- Massachusetts Institute of Technology (o.A.). Moral Machine – Human Perspectives on Machine Ethics. Verfügbar unter: http://moralmachine.mit.edu/ [26.11.2016].
- Wolfangel, E. (2016). ALGORITHMEN: Die Grenzen der künstlichen Intelligenz. Spektrum.de. Verfügbar unter: http://www.spektrum.de/news/die-grenzen-der-kuenstlichen-intelligenz/1409149 [26.11.2016].