Der Turing Moment

Es war ein ganz normaler Freitag im späten April 2024, als ich Robert Henke, einen Künstler, Entwickler und Denker, den ich sehr schätze, auf einer Veranstaltung traf. Nach der Podiumsdiskussion sprachen wir auf dem Gehweg vor der DAM Galerie in Berlin Charlottenburg noch etwas weiter über künstliche Intelligenz, ihre Anwendungen und Auswirkungen. Es ist ein episches Thema. Es war amüsant, denn wir konnten das Thema aus einer Perspektive der Beobachtung und des manipulativen Betrachtens angehen, nicht als Opfer oder Collateralschaden.

Robert erzählte von einem Gespräch, das er kürzlich mit einem Service-Mitarbeiter über Tastatur und ein Chatfenster geführt hatte. Er hatte das Gefühl, dass die Kommunikation wie mit einem Chatbot ablief. Das ist heutzutage durchaus üblich, da viele Service-Portale mittlerweile eine Chat-Möglichkeit anbieten, die die realen Mitarbeiter ersetzt oder entlastet, typischerweise für die am häufigsten gestellten Fragen.

Früher und auch heute noch gab und gibt es die FAQ (Frequently Asked Questions). Oft ist es eine lange Aneinanderreihung von Fragen und Antworten, die sich um die häufigsten und wichtigsten Themen kreisen und deswegen am meisten gestellt wurden. Es war und ist mühsam, sich 50 Fragen durchzulesen, die einen gar nicht interessierten, nur um die eine Frage zu finden, die man gerade beantwortet haben wollte. Oft hat man all diese Fragen durchgelesen, die eigene dabei nicht gefunden, aber Zeit verschwendet. Ein Chatbot kann – wenn er die Frage versteht – aus allen ihm zur Verfügung gestellten Antworten die richtige heraussuchen und präsentieren. Leider gelingt das nicht immer, denn die Probleme, mit denen sich Menschen an ein Chatfenster wenden, sind oft kompliziert und miteinander verknüpft, so dass die Antwortsfindung typischerweise ebenso komplex ist. Auch sind die Chatbots oft schlecht programmiert, verstehen den Kern der Frage nicht oder liefern auch auf Nachfrage nur die eine – ungenügende – Antwort aus der Schublade.

Das Gespräch, das Robert mit dem Service-Mitarbeiter über das Chatfenster tippend führte, war so sachlich, dass er sich fragte, ob er es hier mit einem Menschen oder „nur“ mit einem Chatbot zu tun hatte. Er hatte wie ich und viele andere oft schon ähnliche Situationen erlebt, oft ist es nicht relevant, da man das Ergebnis erzielt und das Gespräch beendet oder abbricht. Manchmal weiss man, dass es sich um einen Menschen handelt, insbesondere, wenn es eine Videoverbindung gibt. Zwar sind auch die KI erzeugten Avatare immer lebensechter, aber noch merkt man es recht schnell (das „uncanny valley“ ist sehr tief).

In dem Gespräch von Henke mit dem Chatfenster es gab einen Moment, bei dem er das Gefühl hatte, dass sein unsichtbares Gegenüber eine menschliche Regung zeigte, nämlich eine Slang-Formulierung verwendete und damit ungewollt Verständnis zeigte. Sein Gesprächspartner wirkte dadurch unmittelbar weniger maschinenhaft, ab jetzt war es ein menschliches Gespräch und irgendwie gelöster. Henke stellte eine Frage, die auch von einem Chatbot beantwortet werden könnte, aber er fragte nach persönlichen Dingen, wie der Wohnsituation und so weiter. Und aus den Anworten wurde es klar, dass dieser Gesprächspartner tatsächlich ein Mensch war. Wenn man Vertrauen aufbaut, redet man anders.

In dem Gespräch mit dem Mitarbeiter bzw. Chatbot hatte Henke also einen Moment, in dem er die Bot oder Mensch Entscheidung zugunsten Mensch kippte.

Ich bezeichnete diesen Kipp-Moment im Gespräch von Robert als “Turing-Moment”, das brachte ihn zum Schmunzeln. Denn es ist der Moment, in dem man durch eine „Testfrage“ oder Art der Kommunikation einen Funken von Verdacht oder Erkenntnis gewinnt, dass man hier etwas Menschliches erkennt, was uns doch so gravierend von der Maschine unterscheidet.

Was ist der Turing Test?

Der Turing-Test, ursprünglich 1950 von Alan Turing als “Imitationsspiel” bezeichnet, ist ein Test zur Beurteilung der Fähigkeit einer Maschine, intelligentes Verhalten zu zeigen, das dem eines Menschen gleichwertig ist oder von diesem nicht zu unterscheiden ist.

Turing war sehr vorausschauend, er ahnte, dass es irgendwann ein großes Problem werden würde, Maschinen von Menschen zu unterscheiden, wenn man sie nicht direkt vor den Augen hat. Erst in den 1990er Jahren wurde mit AIML eine Programmsprache zur „Fütterung“ von Chatbots entwickelt. In dieser Zeit arbeitete ich mit meiner Firma an der Verbreitung von virtuellen Menschen, wir entwickelten virtuelle Figuren und Chatbots, gestützt von AIML. Da die Chatbots keinen Internetzugang hatten, musste ihr gesamtes Wissen eingegeben werden. Es war klar, dass hier Lücken klaffen und ein Nutzer schnell eine solche entdecken konnte und den Chatbot als Software enttarnen konnte. Es war auch nicht unser Anspruch zu täuschen, den Kampf konnte man damals nicht gewinnen. Der Turing Test hätte jeden Chatbot entlarvt.

Turings „Imitationsspiel“ war ein Drei-Personen-Spiel bei dem ein Befrager Fragen an einen Mann und eine Frau in einem anderen Raum stellt, um das richtige Geschlecht der beiden Spieler zu bestimmen, ohne sie zu sehen.

Turings neue Frage in Bezug auf zukünftige Chatbots lautete: „Gibt es vorstellbare Software, die im Imitationsspiel gut abschneiden würden?“. Diese Frage, so glaubte Turing, könnte tatsächlich beantwortet werden, aber es gäbe sicher Fälle, in denen es sehr schwierig werden würde. Manchmal ist es klüger und menschlicher zu schweigen, hier muss das Timing und der Kontext genau beobachtet werden.

Turing umging die Debatte darüber, wie genau man Denken definieren sollte, indem er einen sehr praktischen, wenn auch subjektiven Test vorschlug: Wenn ein Computer handelt, reagiert und interagiert wie ein fühlendes Wesen, dann nennen wir ihn fühlend. Das heute als Turing-Test bekannte Verfahren geht so:

Ein Befrager (Mensch) stellt an zwei Chatfenster mehrere Fragen. Hinter einem Fenster befindet sich ein Mensch, hinter dem anderen eine Software. Der menschliche Befrager muss innerhalb eines festgelegten Zeitrahmens anhand der erhaltenen Antworten die Chatfester entweder einem Computer oder einem Menschen zuordnen.

Turing prognostizierte, dass bis zum Jahr 2000 ein Computer das Imitationsspiel so gut spielen würde, dass ein durchschnittlicher Befrager nach fünf Minuten Befragung nicht mehr als eine 70-prozentige Chance hätte, die richtige Identifikation (Maschine oder Mensch) zu treffen. Heute jedenfalls, 2024, besteht fast jede moderne Chat KI den Turing Test, wenn es ihr Zweck sein soll. Der Turing Test muss neu gedacht werden.

Der Eliza Effekt

Tatsächlich gelang es dem MIT Professor Joseph Weizenbaum bereits 1966 mit seinem Programm Eliza zwar nicht zu täuschen, also seine Software im Turing Test als Mensch durchzubringen, aber es gab den sogenannten Eliza Effekt, dass der Befrager die Software nicht für einen Mensch hielt aber menschlich, verständnisvoll empfand.

In der zweiten Hälfte der 1990er Jahre und um die Jahrtausendwende habe ich bei meiner Arbeit mit virtuellen Menschen diesen Effekt oft bemerkt. Meine virtuellen Idole hatte Autogrammkarten, ihr eigenes Parfüm, beantworteten Fanpost. Sie traten live auf und wurden als menschlich angesehen, Fans erzählten ihre privaten Probleme, sie waren „menschliche“ Freunde, aber nie Konkurrenz. (Hier „Tyra“)

Die Möglichkeit, den Menschen von einer Maschine zu unterscheiden, ist manchmal nicht wichtig, wenn es darum geht, eine klare Aussage zu bekommen. Egal welche der beiden Seiten die Antwort liefert, es geht um die Antwort. Einn geschulter Mensch kann natürlich wie eine gut trainierte Software sehr schnell reagieren. Der Vorteil der Maschine liegt auf der Hand: Sie kann das millionenfach gleichzeitig Tag und Nacht ausführen, sie hat endlose Geduld bei Verständnisproblemen und sie kann wohl schneller und umfassender auf Material zugreifen als der Mensch mit seiner Eingabemaske, der das Problem an die nächsthöhere Instanz abgibt und oft nur die Hälfte der Information weiterleitet…

Der Nachteil dieser softwaregestützten Lösung ist, dass Probleme, deren Lösungen sich ohnehin schon nicht im Internet finden lassen, möglicherweise auch nicht durch die Maschine gelöst werden können. In solchen Fällen kann es interessant sein, mit einem menschlichen Mitarbeiter zu sprechen, der dieses Problem nachvollziehen kann und eventuell aus seiner Erfahrung einen Lösungsansatz vorschlägt, weil es bereits erfolgreich bei einem anderen Problem angewendet wurde.

Manchmal geht es um eine Ahnung, ein Gefühl, eine Intuition, eine Parallele, die uns auf die Lösung zu einem Problem bringt. Kann eine Software, eine KI das leisten?

Das bringt uns zu dem Begriff „Weltmodell“, über das ich in einem anderen Beitrag sprechen werde.

Es ist verstörend und faszinierend gleichzeitig, zu sehen wie die Grenzen zwischen Mensch und Maschine immer mehr verschwimmen und wie wir uns in einer Welt wiederfinden, in der wir uns fragen müssen: Spreche ich gerade mit einem Menschen oder mit einem Chatbot? Manchmal ist die Antwort nicht so klar, wie wir denken, aber wenn doch, dann hatten wir vielleicht gerade einen „Turing-Moment“.



Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert