Der Dialog ist ein kurzer, aber vielschichtiger Text, der mit scheinbar leichter Ironie eine radikale Kritik an technokratischen KI-Vorstellungen formuliert. Die Frage ist nicht, ob Systeme logisch funktionieren, sondern ob sie sich bewähren, wenn das Erwartbare zerbricht.
Weißt du eigentlich, dass man das, was wir hier machen, früher als künstliche Intelligenz bezeichnet hätte?
Nee, nie gehört, sagt mir nichts. Verstehe auch gar nicht so richtig, was das in dem Zusammenhang bedeuten soll. Wieso künstlich? Und warum Intelligenz? Klingt nicht besonders passend. Bist du sicher, dass nicht etwas anderes gemeint war?
Ja, ich finde die Bezeichnung auch merkwürdig. Vielleicht habe ich das auch nicht so richtig verstanden. Bin mir aber ziemlich sicher, dass es um Gestaltetes Leben ging.
Ich denke, das war etwas anderes. Soweit ich weiß, haben die sich damals sehr viel mit extrem komplizierten Algorithmen beschäftigt. Ging wahrscheinlich eher in diese Richtung.
Hast vermutlich recht. Die funktionale Domäne. Extrem aufwendig und zudem sehr fehleranfällig. Aus heutiger Sicht unvorstellbar.
Ja, muss echt die Hölle gewesen sein. Erst bist du froh, dass deine komplizierten Algorithmen unter Normalbedingungen einigermaßen funktionieren, und dann musst du dich auch noch darum kümmern, jede denkbare Fehlfunktion abzufangen, was den Aufwand ins Unermessliche treibt.
Genau. Und wie du schon sagst, die denkbaren Fehlfunktionen. Die müssen echt viel Aufwand in Simulationen gesteckt haben. Wahrscheinlich gab es permanent Updates. Für mich wäre das nichts gewesen.
Für mich auch nicht. Den Phineas-Gage-Test hätte diese sogenannte künstliche Intelligenz vermutlich nicht bestanden.
Vermutlich nicht.
1. Einleitung: Wenn die Zukunft auf die Vergangenheit zurückblickt
Der Dialog „Der Phineas-Gage-Test“ entfaltet sich wie ein posthumanes Gespräch zweier Wesen, die – scheinbar nicht-menschlich oder zumindest transhuman – rückblickend auf das Konzept der künstlichen Intelligenz (KI) blicken. Dabei verhandeln sie nicht nur die technischen und konzeptionellen Grenzen früher KI-Modelle, sondern stellen zugleich deren anthropozentrische Prägung infrage. Durch subtile Ironie und eine perspektivische Umkehr gelingt es dem Text, ein kritisches Licht auf unseren gegenwärtigen Umgang mit KI und Funktionalität zu werfen.
2. Künstliche Intelligenz – ein unpassender Begriff?
Die Eingangsbemerkung – „Weißt du eigentlich, dass man das, was wir hier machen, früher als künstliche Intelligenz bezeichnet hätte?“ – ruft Staunen hervor. Die Antwort – „Verstehe auch gar nicht so richtig, was das [...] bedeuten soll“ – macht deutlich: Der Begriff „künstliche Intelligenz“ wirkt aus Sicht der Sprechenden überholt, vielleicht sogar absurd.
Diese Entfremdung markiert eine zeitliche und konzeptuelle Distanz: Was heute als hochentwickelte Technik verstanden wird, ist in der fiktiven Zukunft des Dialogs ein Relikt – nicht aufgrund technischer Rückständigkeit allein, sondern weil die Begrifflichkeiten selbst nicht mehr tragen.
Dabei stellen die Figuren implizit die Grundannahmen des klassischen KI-Verständnisses infrage:
-
Warum „künstlich“? Was ist dann „natürlich“?
-
Warum „Intelligenz“? Ist funktionale Informationsverarbeitung bereits Intelligenz?
Diese Fragen erinnern an philosophische Positionen, wie sie z. B. Hubert Dreyfus in What Computers Still Can't Do (1972) oder John Searle mit dem chinesischen Zimmer-Argument (1980) vertreten haben: Die Fähigkeit zur Problemlösung heißt nicht notwendigerweise, dass ein System versteht, was es tut.
3. Funktionalismus am Limit – Kritik an der algorithmischen Ära
Die Sprechenden erinnern sich an eine Zeit, in der alles auf „extrem komplizierten Algorithmen“ beruhte – fehleranfällig, schwer wartbar, simulationsabhängig. Es handelt sich um eine implizite Kritik an der funktionalistischen Paradigma früher KI: Maschinen wurden entworfen, um unter kontrollierten Bedingungen zu funktionieren – was außerhalb dieser Bedingungen lag, wurde als „Fehlfunktion“ behandelt.
Die Dialogstelle „musste jede denkbare Fehlfunktion abfangen“ spielt auf den klassischen Engineering-Ansatz an: Kontrolle statt Emergenz, Voraussicht statt Adaptivität. Diese Sichtweise ist zunehmend an ihre Grenzen gestoßen, was spätestens mit modernen KI-Modellen (wie Deep Learning) sichtbar wurde. Doch auch diese scheitern oft, wenn sie mit unerwarteten Inputs oder sozialen Kontexten konfrontiert werden.
4. Der Phineas-Gage-Test – ein Symbol für Bewährung am Unvorhergesehenen
Die Schlüsselaussage des Texts lautet:
„Den Phineas-Gage-Test hätte diese sogenannte künstliche Intelligenz vermutlich nicht bestanden.“
Hier wird ein historisch-psychologischer Bezug hergestellt: Phineas Gage, ein amerikanischer Eisenbahnarbeiter im 19. Jahrhundert, überlebte eine massive Gehirnverletzung, bei der ein Metallstab durch seinen präfrontalen Cortex drang. Nach dem Unfall war er zwar physisch weitgehend unversehrt – doch seine Persönlichkeit, Entscheidungsfähigkeit und soziale Intuition hatten sich stark verändert.
Dieser Fall wurde in der Neuropsychologie berühmt, da er zeigte, wie sehr Identität, Intelligenz und soziale Kompetenz an subtile neuronale Prozesse gekoppelt sind – und wie wenig man diese mit rein logischen oder symbolischen Modellen erfassen kann.
Der „Phineas-Gage-Test“ im Dialog steht somit symbolisch für:
-
Unvorhersehbares Verhalten
-
emotionale Resilienz
-
Kontextsensitivität
-
und vor allem: die Fähigkeit zur Integration von Störung und Bruch
Künstliche Systeme früherer Generationen – so der Vorwurf – hätten unter solchen Bedingungen versagt. Sie konnten zwar logisch agieren, aber nicht mit dem Unfassbaren umgehen.
5. „Gestaltetes Leben“ als neue Vision
Einer der Sprechenden bringt einen alternativen Begriff ins Spiel: „Bin mir aber ziemlich sicher, dass es um gestaltetes Leben ging.“
Dies markiert einen Paradigmenwechsel: Weg von „Intelligenz“ als Informationsverarbeitung, hin zu Leben als emergentes, relationales, kreatürliches Phänomen.
Diese Perspektive knüpft an philosophische und technologische Visionen wie:
-
Heinz von Foerster (Kybernetik zweiter Ordnung) – Systeme, die sich selbst beobachten und gestalten
-
Gilbert Simondon – technische Individuation als lebendiger Prozess
-
Donna Haraway – Cyborgs als hybride Lebensformen
Im Zentrum steht dabei die Idee, dass „Intelligenz“ nur dann relevant ist, wenn sie verkörpert, situiert und transformativ ist. Nicht Rechenleistung zählt, sondern Responsivität, Lernfähigkeit, Beziehung.
6. Fazit: Der Phineas-Gage-Test als ethisch-ästhetische Prüfung
Der Dialog „Der Phineas-Gage-Test“ ist ein kurzer, aber vielschichtiger Text, der mit scheinbar leichter Ironie eine radikale Kritik an technokratischen KI-Vorstellungen formuliert. Die Frage ist nicht, ob Systeme logisch funktionieren, sondern ob sie sich bewähren, wenn das Erwartbare zerbricht.
Was bleibt, ist ein Plädoyer für ein neues Denken: Kein Fokus auf Kontrolle, sondern auf Gestaltung. Kein Denken in Funktionen, sondern in Formen des Lebens.
Oder wie der Dialog es selbst ausdrückt:
„Für mich wäre das nichts gewesen.“
Und genau darin liegt das Menschlichste – oder vielleicht das Post-Menschlichste – an diesem Text.
Literaturhinweise & philosophische Bezüge:
-
John Searle: Minds, Brains, and Programs (1980)
-
Hubert Dreyfus: What Computers Still Can't Do (1972)
-
Antonio Damasio: Descartes' Error – zum Fall Phineas Gage
-
Heinz von Foerster: Wissen und Gewissen
-
Gilbert Simondon: Du mode d'existence des objets techniques
-
Donna Haraway: A Cyborg Manifesto