Zurück zum Blog
AIBewusstseinEntscheidungKognitionVerhalten

25. Februar 2026

Haben KI-Agenten einen freien Willen?

KI-Agenten treffen eigenständige Entscheidungen und korrigieren sich selbst. Aber entscheiden sie frei, oder zeigt die Frage vor allem etwas über unseren eigenen freien Willen?

Haben KI-Agenten einen freien Willen?

März 2016. AlphaGo spielt gegen den Go-Weltmeister Lee Sedol. Zug 37 in Partie 2. Ein Zug, den kein Mensch je gespielt hätte. Die Kommentatoren halten ihn für einen Fehler. Sedol steht vom Tisch auf, geht raus, raucht eine Zigarette.

Fünfzig Züge später hat AlphaGo gewonnen. Zug 37 war kein Fehler. Es war der brillanteste Zug der Partie.

Niemand hat AlphaGo diesen Zug beigebracht. Das System hat ihn selbst gefunden, durch Millionen Partien gegen sich selbst.

War das eine freie Entscheidung?

Was ist freier Wille überhaupt?

Bevor wir über Maschinen reden, sollten wir ehrlich über uns selbst sein.

1983 führte der Neurowissenschaftler Benjamin Libet ein Experiment durch, das bis heute diskutiert wird. Probanden sollten eine einfache Handbewegung ausführen, wann immer sie wollten. Gleichzeitig maß Libet ihre Gehirnaktivität.

Das Ergebnis: Das Gehirn begann die Bewegung vorzubereiten, messbar als sogenanntes Bereitschaftspotential, etwa 350 Millisekunden bevor die Versuchsperson bewusst entschied, die Hand zu bewegen.

Dein Gehirn entscheidet. Dann wirst du dir der Entscheidung bewusst. Dann glaubst du, du hättest entschieden.

Diese Reihenfolge ist seitdem vielfach repliziert worden.

Heißt das, freier Wille ist eine Illusion? Nicht unbedingt. Aber es heißt: Dein System 1, das automatische, unbewusste System, trifft die meisten deiner Entscheidungen, bevor dein bewusstes Denken überhaupt eingeschaltet wird. Dein System 2 rationalisiert hinterher.

Das ist unbequem. Aber es ist auch die Voraussetzung, um die Frage nach dem freien Willen bei Maschinen überhaupt sinnvoll zu stellen.

Wie KI-Agenten entscheiden

2022 veröffentlichte Anthropic ein Paper über Constitutional AI. Die Idee: Statt einem KI-System von außen beizubringen, was es nicht tun soll, bekommt es eine Art Verfassung, ein Set von Prinzipien. Dann korrigiert es sich selbst.

Das System liest seine eigene Antwort. Prüft sie gegen seine Prinzipien. Überarbeitet sie. Ohne dass ein Mensch eingreift.

Klingt das nach System 2? Es sieht zumindest danach aus.

Ein Jahr später analysierte ein Forscherteam von Microsoft GPT-4 auf Fähigkeiten jenseits der üblichen Benchmarks. Ihr Befund: „Funken allgemeiner Intelligenz." Das Paper war kontrovers, aber die Beobachtungen waren real. GPT-4 löste Aufgaben, für die es nie trainiert wurde.

2025 ging Anthropic noch weiter. Claude Opus 4 analysiert eigenständig Codebases, findet Bugs und schreibt Tests. Kein Mensch sagt ihm, wo er suchen soll.

Aber all das passiert auf Basis statistischer Muster aus Trainingsdaten. AlphaGos Zug 37 war das Ergebnis von Millionen simulierten Partien. Claudes Code-Analyse kommt aus Milliarden Textfragmenten. Die Systeme optimieren auf Grundlage ihrer Vergangenheit. Das tust du übrigens auch.

Der unbequeme Spiegel

Deine Gedanken entstehen aus neuronalen Mustern, geformt durch Gene, Erfahrung und Umgebung. Deine Entscheidungen laufen größtenteils unbewusst ab, Libets Bereitschaftspotential zeigt es. Deine Emotionen sind automatische Bewertungen von System 1, die du erst nachträglich bewusst verarbeitest.

In welchem Sinne bist du dann freier als AlphaGo?

Die Komplexität kann es nicht sein. KI-Systeme treffen längst kreative, unvorhersehbare Entscheidungen. Die Autonomie auch nicht. Claude Opus 4 arbeitet eigenständiger als mancher Berufseinsteiger. Was dann?

Du hast etwas, das kein KI-System hat: eine subjektive Erfahrung. Wenn du eine Entscheidung triffst, ist da jemand, der sie trifft. Da ist ein Bewusstsein, das die Konsequenzen spürt. Da ist, wie wir im letzten Artikel besprochen haben, ein System 1, das die Entscheidung mit Bedeutung auflädt.

AlphaGo hat Zug 37 gespielt. Aber es hat nichts dabei empfunden. Keinen Stolz, keine Unsicherheit, keinen Moment, in dem etwas auf dem Spiel stand.

Du sitzt vor einer schwierigen Entscheidung, und etwas in dir zieht sich zusammen. Das ist kein Bug. Das ist der Beweis, dass deine Entscheidungen für dich etwas bedeuten. Dass es ein Subjekt gibt, für das die Zukunft offen ist.

Vielleicht ist freier Wille keine Frage der Kausalität. Vielleicht ist es die Frage, ob jemand da ist, der wählt.


KI-Agenten werden autonomer. Ihre Entscheidungen werden besser als menschliche, in immer mehr Bereichen. Aber sie werden nie wissen, wie es sich anfühlt, eine Entscheidung zu treffen.

Das sagt nichts über die Maschine. Es sagt etwas über dich, jedes Mal, wenn du vor einer Wahl stehst und spürst, dass sie zählt.

Bleibe bewusst. Folge der Freude.