AGI – was ist das und was bedeutet es?
Deep Dive: AGI – wovon reden wir hier eigentlich?
Was ist eigentlich AGI?
AGI – Artificial General Intelligence – ist einer dieser Begriffe, bei denen alle nicken, als wüssten sie genau, was gemeint ist. Sam Altman von OpenAI sagt, sein Unternehmen wisse jetzt, wie man AGI baut. Demis Hassabis von DeepMind sagt, aktuelle Systeme seien davon noch weit entfernt. Dario Amodei von Anthropic meidet das Wort komplett und spricht lieber von „Powerful AI“. Und für Elon Musk ist es schon 2026 so weit, er sagt aber nicht genau, was es bedeutet.
Vier CEOs der führenden KI-Unternehmen, vier völlig unterschiedliche Definitionen.
Macht aber nichts, wie ihr sehen werdet, denn darum geht es eigentlich gar nicht. Ich nutze den Begriff im folgenden als nicht exakt definierten KI-Reifegrad und fokussiere mich auf die Gemeinsamkeiten, so weit möglich.
Was heutige KI kann – und was nicht
ChatGPT, Claude, Gemini und das ein oder andere chinesische Modell – diese Systeme können bereits erstaunlich viel. Texte schreiben, Code programmieren, Bilder analysieren, in Dutzenden Sprachen kommunizieren. Das ist weit entfernt vom Schachcomputer, der nur eine einzige Sache beherrscht.
Aber es ist noch kein AGI.
Der Unterschied liegt in der Art, wie diese Systeme lernen. Sie wurden mit riesigen Datenmengen trainiert und können das Gelernte anwenden. Was sie nicht können ist, aus einer einzigen neuen Erfahrung lernen und dieses Wissen auf völlig unbekannte Situationen übertragen. Ein Mensch sieht einmal, wie ein neues Werkzeug funktioniert, und kann es sofort benutzen (also Chuck Norris auf jeden Fall). Aktuelle KI braucht tausende Beispiele.
Dazu kommt, dass aktuelle Modelle Ursache und Wirkung nicht wirklich verstehen können. Sie erkennen Zusammenhänge in Daten, aber sie verstehen nicht, warum etwas passiert. Und dann ist da noch die große Frage nach Bewusstsein – ob KI jemals so etwas wie Erleben haben kann. Das ist eine eigene, riesige Diskussion, die den Rahmen dieses Newsletters sprengen würde, zumal es kein einheitliches Verständnis von Bewusstsein gibt.
Worauf sich alle einig sind
Bei all den unterschiedlichen Definitionen gibt es einen gemeinsamen Kern. Ob Altman, Hassabis, Musk oder Amodei – wenn sie von AGI oder „Powerful AI“ sprechen, meinen sie Systeme, die:
Wissen transferieren können. Etwas in einem Bereich lernen und dieses Wissen auf völlig neue, unbekannte Situationen anwenden. Das ist der entscheidende Unterschied zu heute. Wir Menschen können das ziemlich gut.
Interdisziplinär arbeiten auf höchstem Niveau. Nicht Experte in einer Sache, sondern kompetent in vielen. Amodei spricht von „klüger als ein Nobelpreisträger in den meisten relevanten Disziplinen“. Hassabis will, dass ein System die Relativitätstheorie entdecken könnte, wenn es nur die Informationen hätte, die Einstein um 1900 zur Verfügung standen. Aktuell ist die interdisziplinäre Kompetenz das, was uns Menschen so besonders macht im Vergleich zu KI und die Kompetenz, die wir ausbauen sollten.
Selbstständig handeln. Komplexe Aufgaben eigenständig lösen, ohne ständige menschliche Anleitung. Über einen längeren Zeitraum.
Kontinuierlich lernen. Heutige Modelle sind nach dem Training eingefroren. Sie können aus Gesprächen nichts dauerhaft mitnehmen, jede Unterhaltung beginnt bei null. Ein AGI-System müsste aus Erfahrungen lernen und ein echtes Gedächtnis haben, das wächst und sich entwickelt.
Das sind die Gemeinsamkeiten. Die genaue Definition ist weniger wichtig als die Richtung, in die es geht.
Der Zwischenschritt ist Agentische KI
Zwischen dem heutigen Sprachmodell und AGI liegt eine Stufe, die gerade sehr viel Aufmerksamkeit bekommt: Agentische KI.
Ein Sprachmodell antwortet auf Fragen. Ein Agent handelt. Er kann Aufgaben in Teilschritte zerlegen, Werkzeuge nutzen, im Internet recherchieren, E-Mails schreiben, Dateien bearbeiten und dabei Entscheidungen treffen.
OpenAI nennt das „Level 3″ ihrer AGI-Skala. Claude beispielsweise kann bereits autonom an Softwareprojekten arbeiten, Websuchen durchführen und Kontext über längere Zeiträume bewahren.
Für einige Forscher ist agentische KI bereits der entscheidende Schritt Richtung AGI. Die Fähigkeit, selbstständig zu planen und zu handeln, unterscheidet diese Systeme fundamental von reinen Chatbots.
Aber es gibt Grenzen. Anthropic hat einen interessanten und sehr amüsanten Test gemacht: Sie ließen Claude einen kleinen Verkaufsautomaten betreiben. Das Ergebnis war ernüchternd – das System machte keinen Gewinn, dafür aber eine Menge Unsinn. In „unordentlichen, komplexen Umgebungen“ scheitern aktuelle Systeme noch regelmäßig. Absolute Leseempfehlung (ich habe Tränen gelacht) oder für die Kurzfassung auch YouTube.
Braucht echte Intelligenz einen Körper?
Es gibt eine Denkschule in der KI-Forschung, die sagt, dass „echte“ Intelligenz nur durch Erfahrung in der physischen Welt entsteht. Yann LeCun, Turing-Preisträger und KI-Chef bei Meta, ist einer der prominentesten Vertreter dieser Position. Sein Argument ist, dass ein System, das nur Texte verarbeitet hat, nicht wirklich weiß, was „schwer“ bedeutet, was „nass“ ist, wie es sich anfühlt, einen heißen Kaffee zu verschütten. Es kennt die Worte, aber nicht die Welt dahinter.
Ein anschauliches Gedankenexperiment dazu ist der „Kaffee-Test“: Könnte ein System in ein fremdes Haus gehen, die Küche finden, die Kaffeemaschine bedienen und tatsächlich Kaffee kochen? Das klingt simpel, erfordert aber visuelle Wahrnehmung bei schlechtem Licht, den Umgang mit zerbrechlichen Gegenständen und das Reagieren auf Unerwartetes.
Genau daran wird intensiv gearbeitet. Roboterhersteller trainieren ihre Systeme mittlerweile in realen 3D-Umgebungen, China hat ganze Roboterfarmen aufgebaut. Die Fortschritte sind enorm – vor drei Jahren waren solche Aufgaben für KI praktisch unlösbar, heute liegen führende Modelle auf räumlichen Benchmarks bei etwa 60 Prozent. Das wird weiter steigen.
Ich bin da anderer Meinung, Intelligenz ist auch formlos und geht weit über das räumliche hinaus. Und Intelligenz ist in der Natur überall, auch im ganz kleinen und in unterschiedlichster Ausprägung.
Was AGI bedeuten würde oder bedeutet
Ein Gedankenexperiment: Was wäre möglich, wenn AGI existiert? Ein paar Beispiele.
Wissenschaft beschleunigen. Ein AGI-System könnte die gesamte Fachliteratur eines Gebiets lesen, Forschungslücken identifizieren, Hypothesen aufstellen und Experimente designen. Durchbrüche, die heute Jahrzehnte dauern, könnten in Monaten passieren.
Komplexe Systeme steuern. Klimamodelle analysieren, Stromnetze optimieren, Lieferketten umgestalten, neue Materialien entwickeln – alles gleichzeitig und integriert.
Unternehmen führen. OpenAI nennt das „Level 5″ ihrer Skala: Systeme, die ganze Organisationen autonom steuern. Finanzen, Compliance, Logistik, Forschung – koordiniert von KI.
Wie weit sind wir davon entfernt? Wir nähern uns tatsächlich an und Teile dieser Kompetenzen können wir mit agentischer KI bereits abdecken. Schwierig wird’s wieder beim Transfer des Wissens, beim selbständigen Lernen und dem Gedächtnis und der dauerhaften Erledigung von Aufgaben.
Aber das ist konkret das, worüber führende KI-Unternehmen als Ziel sprechen und arbeiten.
Ein Nadelöhr ist übrigens, dass KI bereits jetzt so viele Entdeckungen macht, aber wir Menschen bei der Umsetzung hinterherhinken. Das trifft auf neuartige Materialien zu und auch auf wissenschaftliche Ansätze. KI „denkt“, wir bekommen es so schnell gar nicht umgesetzt.
Das klingt nach enormem Potenzial – und genau das macht vielen auch Sorgen. Wenn ein System wirklich selbstständig handeln und lernen kann, stellt sich die Frage: Wie stellen wir sicher, dass es das tut, was wir wollen? Die Diskussion um KI-Sicherheit und Alignment beschäftigt die Forschung intensiv. Auch das ein Thema für einen eigenen Deep Dive.
Was das für Arbeit bedeutet
Ein System, das eigenständig forschen, analysieren und Organisationen steuern kann, würde auch die Arbeitswelt grundlegend verändern. Nicht nur Routineaufgaben, sondern auch qualifizierte Wissensarbeit könnte von AGI übernommen werden.
Die Szenarien reichen von „neue Jobs entstehen, alte verschwinden“ bis zu „Massenarbeitslosigkeit in bisher ungekanntem Ausmaß“. Wie gravierend die Auswirkungen tatsächlich werden, hängt davon ab, wie schnell AGI kommt, wie leistungsfähig sie ist und wie Gesellschaften darauf reagieren.
Neue Jobs entstehen, es gibt viele Stimmen, die sagen, dass mehr Jobs durch KI entstehen, als von KI übernommen werden. Es gibt andere Stimmen, die das Gegenteil behaupten. Wir wissen es heute nicht, ich tendiere zur ersten Gruppe.
Parallel dazu arbeitet die Forschung an der Frage, wie solche Systeme sicher gestaltet werden können – dass sie tun, was wir wollen, und nicht etwas anderes. Auch das verdient einen eigenen Deep Dive.
Der globale Wettlauf (oder auch Wettrüsten in Sachen KI)
Ich erwähne es immer wieder, da es so wichtig ist. Die Entwicklung leistungsfähiger KI findet auf höchster geopolitischer Ebene statt. USA und China investieren Milliardensummen, und die Modelle beider Seiten haben mittlerweile ein vergleichbares Niveau erreicht. Der technologische Abstand, den es vor 1 Jahr noch gab, ist weitgehend geschrumpft.
Europa spielt in diesem Wettlauf eine untergeordnete Rolle. Von digitaler Souveränität sind wir weit entfernt. Es gibt keine europäischen Frontier-Modelle, die mit den amerikanischen oder chinesischen mithalten können. Kann aber noch kommen.
Einordnung
AGI bleibt ein Begriff ohne einheitliche Definition. Aber das ist auch nicht entscheidend. Entscheidend ist die Richtung, und die ist klar: immer mehr Selbstständigkeit, immer mehr Transferleistung, immer mehr interdisziplinäre Kompetenz. Wissenstransfer, eigenständiges Handeln, Expertise über Domänen hinweg – darauf arbeiten alle großen KI-Labore hin, egal wie sie es nennen.
Ob das mit der aktuellen Technologie erreichbar ist oder ob wir völlig neue Ansätze brauchen, ist eine große Diskussion. Einige sagen, dass die aktuellen Transformer-Modelle das nie leisten können. Andere sagen, dass wir näher dran sind, als die meisten denken. Aber das hängt auch wieder davon ab, wie die jeweilige Definition von AGI aussieht.
Es wird über „Post-Transformer“-Modelle wie Baby Dragon Hatchling (BDH) berichtet, die kontinuierlich lernen und ein echtes Gedächtnis haben sollen, im Gegensatz zur aktuellen „Täglich grüßt das Murmeltier“-Schleife von Modellen wie ChatGPT.
Auf jeden Fall ist die Richtung klar. Die Systeme werden selbstständiger, flexibler, fähiger. Wie weit das geht und wie schnell – das werden die nächsten Jahre zeigen.
Weiterlesen in KI Kompakt
- Humanoide Roboter – AGI braucht einen Körper
- Claude – mein KI-Favorit – Die KI mit eigener Verfassung
- Was ist KI eigentlich? – Nochmal die Grundlagen
Alles Liebe,
deine Manuela
