Ob die Maschine bewusst ist, kann uns egal sein — eine ExMachina Interpretation

Yves Zumbühl
3 min readNov 10, 2020

--

Schach galt einst als unüberwindbares Hindernis für Computer.

Im Jahr 2014 kommt Alex Garlands Debütfilm Ex-Machina in die Kinos der Welt. Der Film überzeugt mit einer modernen und glaubhaften Auseinandersetzung mit den ethischen Fragen rund um künstliche Intelligenz und künstliches Bewusstsein. Die Geschichte folgt Caleb Smith, einem jungen Programmierer, der bei einem Wettbewerb seines Unternehmens einen einwöchigen Aufenthalt auf dem Anwesen des CEO, Nathan Bateman gewinnt.

Dort darf er Nathans neuste Kreation testen: einen KI-Roboter Namens Ava. Während sieben Tagen unterzieht er sie einem Turing Test. Dabei schafft es Ava, sein Vertrauen zu gewinnen und Misstrauen gegenüber Nathan zu sähen. Caleb wendet sich gegen Nathan und befreit Ava. Diese hinterlässt Caleb eingesperrt und tötet Nathan.

Wie kam es soweit? Um das zu verstehen, werden unten mehrere Szenen beschrieben und dann anhand von philosophischen Konzepten erklärt.

Nach seinem ersten Tag hat Caleb ein interessantes Gespräch mit Nathan (Minute 24:50).

Caleb: «Ava durch eine Konversation zu testen ist im Grunde ein geschlossener Kreislauf»

Nathan: «Ein geschlossener Kreislauf?»

Caleb: «Ja, als würdest du einen Schachcomputer testen, indem du mit ihm nur Schach spielst.»

Nathan: «Wie testet man sonst einen Schachcomputer?»

Caleb: «Es kommt darauf an. Man kann gegen ihn spielen, um zu sehen, ob er gute Züge macht. Aber das sagt einem nicht, ob er weiss, dass er Schach spielt.»

Diese Szene spielt auf das Problem des Fremdpsychischen an. So sind die Erlebnisse eines anderen Individuums (in diesem Falle der KI) eine private und subjektive Selbsterfahrung, die von aussen nicht bestätigt werden kann. Caleb kann nicht wissen, ob Ava etwas fühlt oder nur geschickt darin ist, etwas vorzutäuschen.

Die aus dem Film stammende Analogie zum Schachcomputer ist daher sehr passend. Dass der Computer Schach spielen kann, bedeutet nicht, dass er weiss, ob er Schach spielt. Um es für Ava gleich auszudrücken wie beim Schachcomputer: Wir wissen nicht, ob sie wirklich etwas fühlt, wenn sie mit Caleb interagiert oder ob so sich der Situation gar nicht bewusst ist.

Nathan knüpft später noch einmal an das Problem an. (Minute 79:57)

Nathan: «Wie erkenne ich, ob eine Maschine eine wahre Emotion aufdrückt oder bloss eine simuliert? Mag Ava dich also wirklich oder nicht? Allerdings, wenn ich so darüber nachdenke, sehe ich eine dritte Option. Die Frage, die sich da stellt, ist nicht, ob sie im Stande ist, dich zu mögen. Die Frage ist, ob sie nur so tut.»

Caleb: «Als würde sie mich mögen? Warum würde sie das machen?»

Nathan: «Vielleicht, weil sie denkt, sie könne mit deiner Unterstützung abhauen.»

Damit impliziert Nathan, dass es schlussendlich gar nicht wichtig ist, ob Ava bewusst ist. Denn ihre Aktionen und deren Folgen sind real. Die Zielsetzung ist damit essenziell. So offenbart Nathan später im Film das eigentliche Ziel von Calebs Besuch: zu testen, ob Ava ihn nutzen würde, um ein von ihm programmiertes Ziel zu erreichen (Minute 84:47).

Caleb: «Was war der eigentliche Test?»

Nathan: «Du. Ava war eine Ratte im Labyrinth. Um zu fliehen, musste sie alles anwenden. Selbstwahrnehmung und Fantasie, Manipulation, Sexualität, Empathie… und das hat sie getan. Und wenn das keine wahre KI ist, verdammt, was dann?»

Caleb: «Meine einzige Funktion war es, von ihr benutzt zu werden, um hier raus zu kommen.»

Nathan: «Ja.»

Aus dieser Szene lässt sich schliessen, dass er Ava darauf programmiert hat, zu fliehen. Sie schlussfolgert daraus, dass ihre Flucht erst vollkommen ist, wenn sie nicht mehr verfolgt wird. Folglich muss sie Nathan töten.

Die Befürchtung, dass ein gesetztes Ziel auf eine Weise interpretiert wird, wie es für den Schöpfer unvorteilhaft ist, findet sich in vielen Texten, die sich mit KI befassen. So schreibt Nick Bostrom von einer künstlichen Intelligenz, deren einziges Ziel die Herstellung von Büroklammern ist. Diese nimmt das Ziel aber wortwörtlich und wandelt die gesamte Erde und später Teile des Weltraums in Anlagen zur Herstellung von Büroklammern.

Eines der Probleme bei der Programmierung der KI ist also, dass ein gesetztes Ziel falsch interpretiert wird.

Er identifiziert allerdings noch ein anderes Problem. Selbst wenn das Ziel richtig interpretiert wird, kann sich dieses Ziel als falsche Utopie herausstellen und auf dem Weg dahin die Dinge, die für das Gedeihen des Menschen wesentlich sind, irreversibel zerstören.

Die Ziele, die man einer KI setzt, haben unabhängig davon, ob sich die KI ihrer selbst bewusst ist, reale Folgen. Desto mächtiger die KI Technologie wird, umso grösser sind die potenziellen Folgen. Wir müssen uns gut überlegen, was wir uns von der KI wünschen.

--

--