1
2
3
4
5
6

Interaktionen (mit) der KI: Ist der Mensch im Fokus? Das ist die Frage dieser Artikelserie. Um sie zu beantworten, blicken wir auf das vergangene Jahr und etwas darüber hinaus zurück und analysieren die Texte, in denen versucht wurde, nach vorne zu schauen. In diesem Artikel geht es um das Zukunftsszenario „AI 2027“, das Anfang April 2025 veröffentlicht wurde. Die Verfasser sind der ehemalige OpenAI-Mitarbeiter Daniel Kokotajlo, die KI-Analysten Thomas Larsen, Eli Lifland, Romeo Dean und der Blogger Scott Alexander. Sie sind Teil des sogenannten „AI Futures Project“, das sich nach eigenen Angaben durch Spenden finanziert. Der an Science-Fiction erinnernde Text ist verbunden mit einer weitreichenden Recherche und teilweise tiefergehenden technischen Beschreibungen.

Aufgrund der durchgearbeiteten Nächte sind die Wissenschaftler, die an der Weiterentwicklung des neuen Super-Agenten der fiktiven Firma OpenBrain arbeiten, übermüdet. Sie sind zugleich die einzigen, die noch etwas Bedeutungsvolles zu der Entwicklung beitragen können und obwohl sie wissen, dass es sie aufzehrt, machen sie weiter. Denn es sind die letzten Monate, in denen ihre Arbeit für den Super-Agenten noch von Relevanz sein könnte. So das Szenario des Sommers 2027 im Bericht „AI 2027“.

Der am 3. April 2025 veröffentlichte Bericht „AI 2027“ entwirft ein Zukunftsszenario zur Entwicklung der Künstlichen Intelligenz (KI) innerhalb der nächsten zwei Jahre. Die von 3 KI-Forschern und einem Wissenschaftsblogger verfasste Vorhersage erhebt den Anspruch, analytisch und methodisch geleitet eine Prognose zur Entwicklung von Superintelligenz zu bieten. Auf über 70 Seiten legen die Autoren, darunter ein ehemaliger OpenAI-Mitarbeiter, am Beispiel eines fiktiven Unternehmens „OpenBrain“ dar, wie technologischer Fortschritt, die Verfügbarkeit von Chips und Grafikkarten und (Geo-)Politik das Wettrennen beeinflussen.

Im Vergleich zu den Zukunftsszenarien der großen AI-Labs, verliert der Mensch im Erschaffungsprozess dabei zunehmend an Bedeutung – um als politischer Regulator wieder in Erscheinung zu treten. Das zumindest skizziert eines von zwei möglichen Szenarien. Worauf stützen die Autoren diese Prognose?

Ausgangspunkt der Analyse ist der Entwicklungsstand im Frühling 2025. Es geht um den Einsatz von sogenannten KI-Agenten. Das sind Systeme, die sprachbasierte Eingaben und Befehle verstehen und auf dieser Basis weitere Aktionen durchführen können. Ein solcher KI-Agent hilft dem fiktiven Unternehmen OpenBrain beim Forschungsprozess an der Künstlichen Intelligenz, indem er Ideen vorschlägt und Code schreibt. Dies alles geschieht in Kombination mit einem riesigen Datenzentrum. Die KI automatisiert, und noch sind es die Menschen, die diese bewusst zu diesem Zweck einsetzen und orchestrieren.

Mit dem Agenten hat sich etwas Zweites verschoben. Beruhten die vorherigen Modelle darauf, dass sie auf massenhaft Text trainiert wurden, der von Menschen geschrieben wurde, übernimmt diese Aufgabe zunehmend der  KI-Agent. Auf tausende Kopien verteilt schreibt, sortiert und filtert er Texte und sorgt dafür, dass für neuere Modelle die beste Datenqualität zur Verfügung steht. Die ohnehin nur indirekte menschliche Kontrolle durch Auswahl und Formulierung der Texte ist automatisiert. Der Mensch kommt in diesem Prozess lediglich zum Vorschein, so die Autoren, indem er stundenlange  Beispiele zum Lösen von long-horizon-tasks beisteuert. Zugleich verbessert sich der Agent zunehmend selbst, indem er kontinuierlich versucht, Coding- oder Forschungsaufgaben zu lösen. Die KI „wächst“, basierend auf immer mehr Interaktion der KI mit der KI.

Im Januar 2027 nehmen die Fähigkeiten des neuen Modells so stark zu, dass sich in der hochspezialisierten Arbeitswelt das wiederholt, was zuvor für gewöhnliche Routineaufgaben galt: Die Forschung kann automatisiert werden und die Angestellten von OpenBrain werden zu Koordinatoren von KI-Forschern. Noch ist es eine Mensch-KI-Interaktion, denn die Anweisungen stammen vom Menschen.

Im März 2027 folgen dann Umstellungen in der Systemarchitektur und diese führen schließlich zu einer weiteren algorithmischen Beschleunigung. Die KI orchestriert diesen Prozess selbst, sodass die Forschenden nicht mehr als Koordinatoren der Agenten fungieren. Zuletzt sind die Überlegungen der KI so komplex, dass sie ohnehin nur noch von wenigen Menschen nachvollzogen werden können. Die letzten Monate der OpenBrain-Forschenden sind im Juni 2027 gezählt. Das ist der eingangs beschriebene Moment: eine KI-Mensch-Interaktion mit zunehmend verschwindenden Menschen.

Denn für (technologischen) Fortschritt, so das Szenario, wird der Mensch nicht mehr gebraucht. Die neueste Version des Agenten wird die erste sein, die ohne menschliche Zuarbeit entstanden ist. Theoretisch seien die vorherigen Versionen geprüft und getestet und nach menschlichen Vorstellungen, Werten und Präferenzen ausgerichtet („alignment“). Doch säen  die Autoren von Anfang an Zweifel, ob und inwieweit dieses Alignment überhaupt möglich ist. Sie beschreiben, dass es in einem selbst-referentiellen und immer komplexer werdenden Prozess immer schwieriger wird, überhaupt so etwas wie Ziele in eine KI zu programmieren.

Das liegt nicht zuletzt an der Art und Weise, wie die Forschenden mit dem Agenten interagieren. Die Nachvollziehbarkeit der Sprachmodelle ist, wie die Autoren beschreiben, bereits im April 2025 herausfordernd. Als große neuronale Netzwerke leiden sie unter dem gleichen Blackbox-Phänomen, wie zuvor die Algorithmen im DeepLearning. Sie sind nicht direkt interpretierbar. Zwar gibt es Möglichkeiten, diese Interpretierbarkeit zu erzeugen („mechanistic interpretability“), doch der Hauptansatz ist psychologischer Art: Auf einer Spannbreite möglicher Verhaltensweisen wird überprüft, wie sich die KI verhält und so versucht man Rückschlüsse auf die internen kognitiven Strukturen zu gewinnen. Eine generative KI beim „Denken“ zu beobachten, bedeutet dann, den Text zu lesen, den sie in den Zwischenschritten ausgibt, bis die finale Antwort erreicht wird.

Dabei ist die eigentliche Leistung von Sprachmodellen, Sprache und Syntax in Zahlen zu übersetzen, um daraufhin eine Folgesequenz von Zahlen zu bestimmen, die dann wieder in Worte übersetzt wird. Die Autoren prognostizieren nun, dass die KI im März 2027 zwar weiterhin auf einen Textinput einen Textoutput liefert. Dass aber die Zwischenschritte, die man zuvor in Worten nachvollziehen konnte, für den Beobachter nicht mehr verständliche Zahlen sein werden. Nachdem der Mensch aus dem Forschungsprozess ausgeschlossen wurde, ist er nun, so die Autoren, im Interpretationsprozess auf das Beobachten von Input und Output beschränkt, ohne nachvollziehen zu können, was dazwischen passiert.

Ob und inwieweit die technischen Entwicklungen so ablaufen werden oder realistisch sind, ist kaum zu beurteilen. Die Autoren beschreiben auf zwei Dimensionen, wie sich das Verhältnis zwischen Menschen und KI verschiebt. Erstens löst sich auf der Prozessdimension die KI in ihrer Entwicklung vom Input durch Menschen. Zweitens verliert sie auf der interpretativen Dimension die Nachvollziehbarkeit für den Menschen. Oder anders formuliert: Die Forschenden von OpenBrain entwickeln ein System, das nicht mehr auf ihren Input angewiesen ist. Sie konstruieren dieses System so, dass sie die Zwischenprozesse selbst nicht mehr nachvollziehen können. Das lässt den Menschen in der Umwelt der KI verschwinden. Dort bestimmt der Mensch aber noch immer die Verteilung von Rechenpower, Datenzentren und Strom – die materielle Basis des Systems. Und somit den Einsatz der KI.

Zusammenfassend zeichnet der Bericht ein Bild, in dem Mensch-KI-Interaktionen durch immer längere KI-KI-Interaktionen abgelöst werden, wobei der Output der KI für den Menschen immer unverständlicher wird. Der Mensch kann in diesen KI-KI-Interaktionen als Störfaktoren auftreten und sich so wieder einbringen. Warum jedoch der nicht nachvollziehbare Output der KI überhaupt für das Handeln von Menschen weiter relevant sein sollte, diskutieren die Autoren nicht.

 

Weitere Beiträge der Artikelserie:

Weiterführende Angebote:

 

 

11.02.26

1
2
3
4
5
6
 
Das Mittelstand-Digital Netzwerk bietet mit den Mittelstand-Digital Zentren und der Initiative IT-Sicherheit in der Wirtschaft umfassende Unterstützung bei der Digitalisierung. Kleine und mittlere Unternehmen profitieren von konkreten Praxisbeispielen und passgenauen, anbieterneutralen Angeboten zur Qualifikation und IT-Sicherheit. Das Bundesministerium für Wirtschaft und Energie ermöglicht die kostenfreie Nutzung der Angebote von Mittelstand-Digital. Weitere Informationen finden Sie unter www.mittelstand-digital.de.