Den Begriff „Verstehen“ versteht jeder. Doch es ist ein bedeutender Begriff. Wenn es ein Alleinstellungsmerkmal des Menschen gibt, dann ist es nicht der aufrechte Gang, über Intelligenz zu verfügen oder Absichten zu haben, sondern, dass wir Wesen sind, die auf eine bestimmte Art verstehen können.
Verstehen in dem Sinne, dass wir nicht nur tun, sondern wissen, was und warum wir etwas tun und es benennen, Gründe für unsere Absichten liefern können. Verstehen aber auch in dem Sinne, dass wir nicht nur etwas sagen, sondern einander Gründe für unsere Ansichten und Einstellungen geben. Dabei ist es gar nicht so relevant, ob die Gründe, die wir geben, tatsächlich stimmen – seit Freud wissen wir, oft genug ist das nicht oder nur in Ansätzen der Fall -, wichtiger ist, dass wir überhaupt begründen können.
Wir können uns erklären, stellen Theorien über unsere Motive auf, wir verstehen uns selbst. Zumindest ein Stück weit. Unsere Konzepte und Ansätze mögen manchmal zu einfach und schöngefärbt sein und decken sich zuweilen nicht befriedigend mit der Realität, aber das ist eher eine Frage der Qualität und Reichweite unserer Konzepte. Wenn alte Ansätze uns nicht mehr helfen, unsere Welt und Mitmenschen zu verstehen, dann greifen wir entweder zu einfachen Konzepten, die uns vermeintlich alles erklären, oder wir versuchen unseren Blick nicht zu verengen, sondern, etwa durch Psychotherapie, zu erweitern.
Verstehen Roboter oder Computer die Welt?
Aber verstehen nicht auch Roboter die Welt? Ein mit einem Rotsensor und Sprachmodul ausgestatteter Roboter kann uns zuverlässig rote Gegenstände anzeigen und korrekt benennen. Kann man behaupten, dass er zwar etwas kann, aber nicht versteht, was er tut?
Ja, denn Verstehen heißt hier zu wissen, was man tut und Gründe dafür angeben zu können. Gleich wie komplex ihre Fähigkeiten sind: Die simpelsten Taschenrechner rechnen bereits schneller als wir, Computer sind wacher und präziser als Menschen, Schachcomputer besiegen inzwischen spielend die besten Schachgroßmeister und doch kam niemand auf die Idee, Deep Blue nach seinem historischen Sieg über den damaligen Schachweltmeister Garri Kasparow zu fragen, wie er sich nun fühlt oder was er über seine Leistung denkt. Bis heute kämen wir nicht auf die Idee, weil wir ahnen, dass der Computer die Frage gar nicht versteht. Er ist genial, aber nur auf einem schmalen Sektor.
Aber ob ein Schachcomputer, die Lichtschranke an einem Tor oder der Thermostat einer Heizung, sie alle verstehen trotz ihrer Zuverlässigkeit nicht, was sie tun, in dem Sinne, dass sie Gründe dafür angeben könnten.
Verstehen Tiere die Welt?
Wie ist es bei Tieren? Beos und Graupapageien sind bekannt für ihre Fähigkeit Laute zu imitieren, auch Sätze in menschlicher Sprache sagen zu können. Doch so schlau manche Vögel, Delfine, Kraken, Elefanten und Affen auch sein mögen, auch sie begründen einander nicht das, was sie tun.
Wir müssen verstehen, worum es bei diesem Verstehen geht. Tiere haben Absichten, ganz ohne Zweifel, sie empfinden, fühlen und sind mitunter ziemlich intelligent, möglicherweise haben sie ein Empfinden für Fairness. Doch sie geben sich selbst und den anderen keine Gründe.
Der Papagei könnte sprechen und immer wieder hat man versucht, Tieren Zeichensprache beizubringen, mitunter durchaus mit Erfolg, doch der hat Grenzen.
Der amerikanische Philosoph Robert Brandom merkt in seinem Monumentalwerk „Expressive Vernunft“ an, bevor man Tieren weitere 100 Begriffe zum Auswendiglernen beibringt, sollte man schauen, wie es um ihre Fähigkeit bestellt ist Konditionale und Quantoren zu begreifen, die Grundeinheiten des logischen Denkens.
Wir finden es neckisch, wenn ein Papagei einen Satz sagt. Wenn unser Nachbar denselben Satz sagt, ist daran nichts besonderes. Auch wenn Kinder altklug daherreden, sind wir amüsiert, hier wie da aus dem Grund, dass wir wissen, dass die Kinder und Papageien nicht wissen, was sie da sagen, sie verstehen die Bedeutung des Gesagten nicht. Kinder lernen das noch, Papageien nicht.
Können nur Menschen verstehen?
Durchaus nicht. Prinzipiell ist es denkbar, dass auch andere Tiere oder künstliche Intelligenz diesen Sprung schafft. Aber dazu reichen keine Floskeln. Man kann sich vorstellen, dass man einen Computer so programmiert, dass er bei bestimmten Schlagwörtern sinnvolle Sätze abspult, wie: „Ja, das Leben ist nicht immer einfach.“ oder: „Ich weiß manchmal gar nicht, wo mir der Kopf steht.“ Ein Kriterium ist der Turing-Test und die Computer werden immer besser.