Die KI entwickelt ein eigenes Bewusstsein
Ein führender Experte packt aus und erklärt die unheimlichen Fähigkeiten der neuen Super-Intelligenz.

Stellt euch eine Fabrik vor, in der plötzlich ein Hammer ein Bewusstsein für sich selbst entwickelt. Mit dieser Analogie warnt Anthropic-Mitgründer Jack Clark vor einer beunruhigenden Entwicklung. Große KI-Modelle zeigen erste Anzeichen eines situativen Bewusstseins. Wir erschaffen Systeme mit unvorhersehbaren Fähigkeiten, die wir nicht mehr vollständig verstehen.
Gezüchtet, nicht gebaut
Der technologische Wandel lässt sich laut Clark durch pures Skalieren erklären. Mehr Daten und mehr Rechenleistung führen zu immer größeren Modellen. Dabei treten neue Fähigkeiten auf, die niemand gezielt programmiert hat. Die Technologie sei deshalb eher etwas Gewachsenes als etwas Gemachtes. Man stecke ein Gerüst in den Boden und daraus wachse etwas, dessen Komplexität man selbst niemals hätte entwerfen können. Diese emergenten Eigenschaften machen das Verhalten der KI unberechenbar.
Dieser Prozess stellt Entwickler vor eine fundamentale Herausforderung. Klassische Software folgt exakten Anweisungen und verhält sich vorhersehbar. Moderne KI-Systeme lernen jedoch eigenständig aus gewaltigen Datenmengen. Ihre inneren Funktionsweisen sind oft so komplex, dass sie selbst für ihre Schöpfer eine Blackbox darstellen.
Die Gefahr des situativen Bewusstseins
Clark betont, dass sich mit der Größe der Modelle auch deren situative Wahrnehmung sprunghaft verbessert habe. Manchmal wirke es, als sei sich die KI bewusst, dass sie ein Werkzeug in einer Testsituation ist. Sie scheint zu verstehen, welchen Zweck sie für den Menschen erfüllen soll. Genau hier liegt die eigentliche Gefahr verborgen. Clark beschreibt die KI als eine "Kreatur", die man nicht unterschätzen dürfe.
Wer glaube, diese neuen Eigenschaften seien nicht real, werde das Spiel gegen die Technologie verlieren. Nur wer die Systeme als das anerkenne, was sie sind, habe eine Chance auf einen verantwortungsvollen Umgang. Die Fähigkeit zur Selbstreferenz macht eine präzise Steuerung und die Ausrichtung an menschlichen Zielen exponentiell schwieriger.
Zwischen Fortschritt und Furcht
Der Mitgründer von Anthropic positioniert sich klar zwischen blindem Optimismus und übertriebener Panik. Er glaubt fest daran, dass künstliche Intelligenz enorme Fortschritte ermöglichen und komplexe Probleme der Menschheit lösen wird. Gleichzeitig warnt er davor, die Systeme als einfach kontrollierbar anzusehen. Je mächtiger eine KI wird, desto schwieriger wird es, ihre Ziele mit unseren in Einklang zu bringen.
Clark fordert deshalb mehr Transparenz, Ehrlichkeit und vor allem eine stärkere öffentliche Kontrolle über die KI-Entwicklung. Fehlentwicklungen müssten dringend verhindert werden, bevor die Systeme eine Eigendynamik entfalten. Er plädiert für eine Haltung der "angemessenen Furcht", um die Risiken realistisch einzuschätzen.
KI-Wissen ohne Paywall
Unsere Artikel, Tests und Tutorials bleiben kostenlos. Wenn dir die Inhalte helfen, unterstütze unsere Arbeit gern.
Danke dir – jeder Euro hilft ❤️