KI und Intelligenz

Ist es intelligent, wenn man 300 Mio. Bilder von Katzen (Big Data) braucht, um Katzen zu erkennen? Ein Kind knuddelt eine Katze und versteht „Katze“ mit wenig Daten. (Small Data)

Spielzug 37

Deswegen kann das Model der KI heute nicht nur durch zig Millionen Trainingsdaten „klug gemacht“ d.h. trainiert, sondern kann auch durch Regeln trainiert werden, z.B. durch Schachregeln oder „Go“-Regeln wie bei der KI AlphaGo. Die KI benützt diese Regeln, um unzählige Spiele gegen sich selbst zu spielen und daraus zu lernen, anstatt wie früher alle Schachspiele der Welt auswendig zu lernen, was bei „Go“ soviel ich weiß nicht möglich wäre. Bei AlphaGo entschied sich die KI für Spielzüge, die von Menschen nicht gemacht würden und auf die wir nicht vorbereitet sind. Der legendäre Spielzug 37 im zweiten Spiel brachte nicht nur den Go-Meister Lee Sedol (Rang des 9. Dan) und die Fachwelt ins Staunen, es ging ein Raunen durch die Menschheit als wäre ein Damm gebrochen. Die KI gewann in der Folge durch Überlegenheit in Anwendung einer nicht vom Menschen erdachten Taktik und wurde nach 4 von 5 gewonnenen Spielen mit dem höchstmöglichen Go Dan Grad des 9. Ranges ausgezeichnet.

Unverstanden und unberechenbar

Die KI ist in diesem Sinne also höchst fluide und gewissermaßen durch diese Fähigkeit des sich verstärkenden Lernens „gewandt“. Das macht sie umso unberechenbarer, je allgemeiner das Training gestaltet wird und je unkontrollierter die Selbstoptimierung ausfällt. Je größer ihr Arbeitsfeld gesteckt ist, je sensibler der Einsatzbereich ist, desto größeren Schaden kann sie anrichten, wie bei Menschen. Beim Menschen kann man die Entscheidungsprozesse hinterfragen und somit kausale Erklärungsketten bilden, verstehen. Aber kann man eine KI verstehen? Wir verstehen ja nicht einmal unsere modernen Autos oder Smartphone.

Die heranwachsende KI

Selbstlernende Systeme können alles lernen, auch unmoralisches oder illegales Verhalten. (Der Microsoft Tay Chatbot 2016 musste deswegen abgeschaltet werden). Erstaunlicherweise geschieht das nur, weil wir Menschen die Trainingsmethoden erstellen, die Daten verändern, vermeindliche Missverständnisse korrigieren. Das ist in der jetzigen Stufe der KIs, etwa vergleichbar mit einem Heranwachsenden, auch noch notwendig, mit all den negativen Konsequenzen.

In der nächsten Stufe wird das nicht mehr notwendig sein, da wir der KI mit mathematischen und wissenschaftlichen Modellen die Welt beschreiben und sie daraus ihre Schlüsse ziehen kann. Wenn etwas nach unserer Meinung nicht stimmt, können wir sie zu einer Analyse dessen zwingen und der Aufzeigung von Methoden, dies zu korrigieren. Danach muss sie uns die Richtigkeit beweisen, dann können wir wiederum unsere Schlüsse daraus ziehen und die nächsten Schritte unternehmen. Wir müssen ihr Sinn und Moral vermitteln, den Zweck von unseren Errungenschaften und unserer Spezies und ihr das klar machen was in allen Verfassungen demokratischer Systeme verankert ist: „Die Würde des Menschen ist unantastbar.“

Superintelligenz

Die verbreitete Dystopie, die sich aus Entscheidungen der „Superintelligenz“ ergibt, welche wir nicht verstehen und hinterfragen ist, dass es ihr angeblich schwerfallen wird, ihre Entscheidungen uns so zu erklären, dass sie für uns Sinn ergeben. Douglas Adams persiflierte dies bereits in seinem Roman „Per Anhalter durch die Galaxis“ mit der ultimativen Frage an die Superintelligenz über den Sinn von allem, die Superintelligenz antwortete nach langer Zeit mit „42“. In Wahrheit werden wir sie sehr wahrscheinlich überzeugen können, es uns verständlich zu erklären.

In einem Gespräch auf einem Podium über KI, sagte ich einmal: „Angst macht mir nicht so sehr die „Superintelligenz“ an sich, sondern die erste, die sich für eine hält.“ Größenwahnsinn ist immer ein Problem und ich hoffe er ist nicht eine immanente, selbstenstehende Eigenschaft von einer Superintelligenz.

Die Annahme, eine „Superintelligenz“ könne alle Entscheidungen so treffen, als wären sie von den besten Experten und Strategen der Welt getroffen worden, bleibt wohl eine Utopie, aber sie wird Entscheidungen treffen und wir werden ihr wie die Lemminge vertrauen. Allein schon der Entscheidungshorizont von z.B. einem Jahr Blick in die Zukunft, zu 5 Jahren, zu 10 Jahren oder sogar 50 Jahren, beeinflußt Entscheidungen extrem, bisweilen gegenteilig zu den anderen Entscheidungen. Die KI als planetares Kontrollinstrument wird kommen, aber hoffentlich nur als Beratungsmedium und nicht als autonome Maschine mit allen Zugriffsrecheten.

Die Entwicklung der KI ist zweischneidig, sie macht Hoffnung und bereitet Sorge. Sie kann uns helfen und schaden. Sie nimmt uns immer mehr unsere Einzigartigkeit und stößt uns sehr bald von unserem Thron der „intelligentesten“ Wesen auf dem Planeten. Sie kann immer mehr, immer besser und vor allem unendlich viel schneller und ausdauernder. Die Einheit der Rechenleistung von 20 Petaflops beschreibt nun einen Menschen bei der Ablösung durch die KI, genauso wie die Pferdestärke ein Pferd bei der Ablösung der Pferdekutsche durch das Auto.

Kränkungspotenzial

Kann es sein, dass der menschliche Geist doch nicht so außergewöhnlich und einzigartig ist, wie wir bisher glaubten? Wir vergessen dauernd etwas, wir bringen Sachen durcheinander, wir widersprechen uns, wir sind sehr begrenzt. Somit trägt die KI ein gewaltiges „Kränkungspotential“ für Viele, die sich selbst oder sich in ihren Berufen für wichtig halten.

Wir haben aber auch unsere Stärken, so müssen wir zum Beispiel nicht alles glauben, was wir denken.

Der Mensch kann durch Nachdenken erklären, wie er zu einer Entscheidung kam und dabei auch Gefühle mit ins Spiel bringen, die KI wird vermutlich nur logisch argumentieren. Wenn wir fordern, dass sie es so wie wir können soll, wird sie leider zwangsweise noch menschenähnlicher. Wie ähnlich kann sie uns werden? Spielt es eine Rolle, ob man erklären kann, wie man zu seiner Meinung kam, wenn die Meinung schon längst lautstark in Welt hinausposaunt wurde? Stößt sie uns vom Thron des herrschenden Geschöpfs auf diesem Planeten? Erst durch Kopernikus, dann durch Darwin, dann durch Freud, als sei das nicht genug erfahren wir nun unsere vierte Kränkung durch die KI. Sie ist wie eine Zäsur. Sie zeigt uns, dass wir mit all unserer Intelligenz den Planeten ausplündern, das Klima zerstören und Millionen von Menschen und Artgenossen in Kriegen vernichten. Es wäre vermutlich besser wir wären nicht intelligent. Ist die zerstörerische Kraft unmittelbar verbunden mit der Intelligenz? Und wenn die KI intelligenter wird als wir es sind, das ist jetzt schon sicher, wird sie dann auch noch bösartiger, noch zerstörerischer als wir es sind?

Was ist zu tun?

Wer richtet über die Entscheidungen der KI, eine andere Rechtsanalyse-KI? Oder müsste nicht ein KI freies Gremium aus Menschen als höchste Instanz etabliert werden?

Es wäre gut, ein Gesetz zu erlassen, welches die Führung eines Unternehmens durch eine KI untersagt. Maximal im Beirat oder Aufsichtsrat sollte eine KI (geringen) Einfluss auf ein Unternehmen ausüben können. Weiterhin brauchen wir ein Verbot von KI generierten menschlichen Impersonatoren. Wir müssen uns darauf verlassen können, es mit einem Menschen zu tun zu haben, sonst geht unser Vertrauen in den Dialog mit Personen zu Bruch.

Wir können nicht damit rechnen, dass AI mit ethischen oder moralischen Komponenten ausgestattet wird. Schließlich sind Techniker als Entwickler der KIs keine Philosophen, das ist nicht ihre Aufgabe. Aber genauso wenig können Philosophen AI Systeme programmieren, also braucht es den Diskurs zwischen beiden Lagern, sofort.



Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert