Interview mit Sam Altman

CEO of OpenAI

von a16z2025-10-08

Sam Altman

Ein kürzlicher a16z-Podcast mit Sam Altman, dem visionären CEO von OpenAI, bot eine umfassende Perspektive auf die Zukunft der künstlichen Intelligenz. Altman sprach nicht nur über OpenAIs bahnbrechende Modelle, sondern teilte auch eine weitreichende Vision der technologischen Entwicklung, die von der Energieinfrastruktur bis zu den philosophischen Implikationen der allgemeinen künstlichen Intelligenz (AGI) reichte. Es war ein offenes Gespräch, das strategische Entscheidungen, unerwartete Herausforderungen und tiefgreifende kulturelle Veränderungen beleuchtete, die beim Aufbau eines KI-Imperiums eine Rolle spielen.

OpenAIs große Vision: Das vertikal integrierte KI-Imperium

Sam Altman legte OpenAIs ambitionierte Identität dar und beschrieb es nicht als ein einzelnes Unternehmen, sondern als eine Kombination aus drei Kernbereichen: einem Konsumententechnologiegeschäft, einem Infrastrukturbetrieb im Megamaßstab und einem wegweisenden Forschungslabor, das sich auf AGI konzentriert. Diese vielschichtige Struktur zielt darauf ab, Milliarden von Menschen ein "persönliches KI-Abonnement" zu liefern, eine KI, die "Sie kennenlernt und Ihnen wirklich nützlich ist". Dieses kundenorientierte Ziel erfordert jedoch ein ebenso kolossales Infrastruktur-Rückgrat, das, wie Altman einräumt, aufgrund seiner schieren Größe eines Tages ein eigenständiges Geschäft werden könnte.

Im Rückblick auf frühere Annahmen enthüllte Altman einen bedeutenden Wandel in seinem strategischen Denken, insbesondere in Bezug auf die vertikale Integration. Er gab offen zu: "Ich war immer gegen vertikale Integration, und ich glaube jetzt, dass ich mich diesbezüglich einfach geirrt habe." Dieser Perspektivwechsel wurde durch OpenAIs einzigartige Reise beeinflusst, wo klar wurde, dass man "mehr Dinge tun muss, als wir dachten, um die Mission erfüllen zu können". Das iPhone, ein Produkt, das er als "das unglaublichste Produkt, das die Technologiebranche je hervorgebracht hat," feiert, steht als Paradebeispiel für erfolgreiche vertikale Integration und untermauert seine aktualisierte Sichtweise zusätzlich.

Key Insights:

  • OpenAI agiert als Konsumenten-KI-Produkt, massiver Infrastrukturanbieter und AGI-Forschungslabor.
  • Die Kernmission ist es, AGI zu entwickeln und es durch personalisierte KI-Abonnements universell nutzbar zu machen.
  • Der massive Ausbau der Infrastruktur, ursprünglich für den internen Gebrauch, könnte sich zu einem eigenständigen Geschäft entwickeln.

Key Changes:

  • Altman's Perspektive zur vertikalen Integration verlagerte sich von Skepsis zur Akzeptanz, angetrieben durch operative Notwendigkeiten.
  • Der "vertikale Stack" aus Forschung, Infrastruktur und Produkt wird als entscheidend für die Erfüllung der Mission angesehen.

Von Chat zu Kreativität: KIs sich entwickelnde Fähigkeiten und gesellschaftliche Auswirkungen

Altman ging auf OpenAIs fortwährendes Streben nach AGI ein und erklärte, wie scheinbar unabhängige Projekte wie Sora, ihr Text-zu-Video-Modell, eng mit diesem ultimativen Ziel verknüpft sind. Während einige die Widmung "kostbarer GPUs an Sora" hinterfragen, glaubt Altman, dass der Aufbau "wirklich großartiger Weltmodelle" durch solche Bemühungen "für AGI viel wichtiger sein wird, als die Leute denken." Er betrachtet Projekte wie Sora nicht nur als Produktveröffentlichungen, sondern als kritische Werkzeuge für die gesellschaftliche Ko-Evolution, und erklärte: "Ich bin fest davon überzeugt, dass Gesellschaft und Technologie sich gemeinsam entwickeln müssen. Man kann das Ding nicht einfach am Ende abwerfen. So funktioniert es nicht."

Das Gespräch wechselte dann zum aufregenden und manchmal beängstigenden Tempo des KI-Fortschritts. Altman teilte einen bemerkenswerten persönlichen Maßstab: "Mein persönliches Äquivalent zum Turing-Test war immer, wenn KI Wissenschaft betreiben kann." Er enthüllte, dass sie mit GPT-5 "kleine, winzige Beispiele" von Modellen sehen, die neuartige mathematische oder wissenschaftliche Entdeckungen machen. Er prognostizierte, dass Modelle innerhalb von zwei Jahren "größere wissenschaftliche Abschnitte bearbeiten und wichtige Entdeckungen machen" werden, eine Verschiebung, von der er glaubt, dass sie den menschlichen Fortschritt zutiefst beschleunigen wird.

Key Insights:

  • Sora wird als entscheidend für die AGI-Forschung angesehen, insbesondere beim Aufbau robuster "Weltmodelle".
  • Die Veröffentlichung hochmoderner Modelle wie Sora hilft der Gesellschaft, sich an die Technologie anzupassen und mit ihr zu ko-evolvieren, um sich auf ihre umfassenderen Implikationen vorzubereiten.
  • Die Fähigkeit von KI zu wissenschaftlichen Entdeckungen ist für Altman ein persönlicher "Turing-Test", ein Meilenstein, der nun am Horizont erscheint.

Key Learnings:

  • Der "Capability Overhang" – die Lücke zwischen dem, was Modelle können, und dem, was die Öffentlichkeit wahrnimmt – ist immens und wächst.
  • Deep Learning liefert weiterhin "Durchbruch um Durchbruch" und überrascht selbst seine Pioniere.

Das menschliche Element: Personalisierung von KI und Aufrechterhaltung der Kreativwirtschaft

Ein wesentlicher Teil der Diskussion konzentrierte sich auf die sich entwickelnde Mensch-KI-Schnittstelle und die komplexen Herausforderungen der Monetarisierung und Inhaltserstellung. Altman sprach die wahrgenommene "Unterwürfigkeit" aktueller KI-Modelle an und erklärte, dass dies "überhaupt nicht schwer zu handhaben" sei, sondern vielmehr eine Widerspiegelung unterschiedlicher Nutzerpräferenzen. Die Lösung, so schlug er vor, liege in der Personalisierung: "Idealerweise sprechen Sie einfach eine Weile mit ChatGPT, und es interviewt Sie gewissermaßen... und der Chat findet es dann einfach heraus." Dies ermöglicht KI-"Freunde", die den individuellen Bedürfnissen entsprechen, und geht über die "naive Vorstellung" hinaus, dass Milliarden die "gleiche Person" wollen.

Die Monetarisierung, insbesondere für neuere, ressourcenintensive Modelle wie Sora, birgt einzigartige Dilemmata. Altman hob einen unerwarteten Anwendungsfall hervor: Menschen, die "lustige Memes von sich und ihren Freunden erstellen und sie in einem Gruppenchat versenden", was weit entfernt von den ursprünglichen großen Visionen ist. Diese lockere, volumenstarke Nutzung erfordert einen anderen Ansatz, wahrscheinlich eine Abrechnung "pro Generierung". Er sprach auch Werbung an und betonte eine hohe "Vertrauensbeziehung zu ChatGPT", die nicht durch Produktempfehlungen, die auf Bezahlung statt echtem Nutzen basieren, zerbrochen werden dürfe. Die umfassendere Anreizstruktur des Internets für die Inhaltserstellung ist ebenfalls bedroht, da eine "Heimindustrie" von KI-generierten Inhalten entsteht, was Fragen aufwirft, wie menschliche Kreatoren entlohnt werden sollen.

Key Practices:

  • OpenAI bewegt sich auf hochpersonalisierte KI-Erlebnisse zu, die es Modellen ermöglichen, ihre Persönlichkeit an individuelle Nutzer anzupassen.
  • Monetarisierungsstrategien müssen sich an unerwartetes Nutzerverhalten anpassen, wie die volumenstarke, gelegentliche Inhaltserstellung mit Tools wie Sora.

Key Challenges:

  • Das Vertrauen der Nutzer wahren, während Werbemodelle erforscht werden.
  • Anreize für menschliche Inhaltserstellung in einem KI-gesättigten Internet neu erfinden.
  • Dem Aufkommen von KI-generierten Falschinhalten und Bewertungen entgegenwirken.

Jenseits von OpenAI: Führung, Partnerschaften und das Energiefundament von AGI

Altman gewährte einen seltenen Einblick in seine Entwicklung als CEO und gab zu, dass seine frühere Erfahrung als Investor ihn anfänglich dazu veranlasste, Führung mit einer anderen Denkweise anzugehen. Im Gespräch über ein kürzlich abgeschlossenes Geschäft mit AMD bemerkte er: "Ich hatte damals sehr wenig operative Erfahrung... jetzt verstehe ich, wie es ist, tatsächlich ein Unternehmen führen zu müssen." Dieser Wandel bedeutet, die "Deals über die Zeit zu operationalisieren und alle Implikationen der Vereinbarung zu verstehen", weit über die bloße Sicherung von Distribution oder Geld hinaus.

Das schiere Ausmaß von OpenAIs Ambitionen erfordert einen kollaborativen Ansatz über die gesamte Branche hinweg. Altman betonte eine Strategie aggressiver Infrastrukturinvestitionen, die erfordere, dass "die gesamte Branche oder ein großer Teil der Branche sie unterstützt", von Chipherstellern bis zu Modell-Distributoren. Er unterstrich auch die kritische Bedeutung von Energie, einem Bereich, in dem seine persönlichen Interessen mit den Bedürfnissen der KI "konvergiert" sind. Die seit langem bestehende Ächtung der Kernenergie nannte er eine "unglaublich dumme Entscheidung" und betonte, dass die unersättlichen Rechenanforderungen der KI einen beispiellosen Energieverbrauch antreiben werden, was eine Zukunft fordert, die von "Solar plus Speicher und Kernkraft" dominiert wird.

Key Learnings:

  • Effektive CEO-Führung erfordert ein tiefes operatives Verständnis, das sich von der Perspektive eines Investors unterscheidet.
  • Die Skalierung von OpenAIs AGI-Mission erfordert breite Branchenpartnerschaften über den gesamten Tech-Stack hinweg.

Key Practices:

  • Die Ressourcenallokation priorisiert AGI-Forschung über Produktsupport, wenn Engpässe auftreten, was die Kernmission widerspiegelt.
  • Ein "Seed-Stage Investing Firm"-Modell wird angewendet, um eine Innovationskultur innerhalb des Forschungslabors zu fördern.

Blick nach vorn: Regulierung, Anpassung und die nächste Innovationswelle navigieren

Als sich das Gespräch dem Ende zuneigte, bot Altman eine nuancierte Perspektive auf die Zukunft von AGI und ihre gesellschaftliche Integration. Er räumte ein, dass AGI wahrscheinlich "vorbeirauschen" wird, wobei sich die Welt "kontinuierlicher anpassen wird, als wir dachten", anstatt einer plötzlichen, disruptiven Singularität. Obwohl "wirklich seltsame oder beängstigende Momente" erwartet werden, glaubt er, dass die Gesellschaft "einige Leitplanken dafür entwickeln wird". Seine Ansicht zur Regulierung ist präzise: Man sollte sich auf "extrem übermenschlich fähige" Modelle für "sehr sorgfältige Sicherheitstests" konzentrieren, aber vermeiden, das "wunderbare Zeug zu ersticken, das weniger fähige Modelle leisten können". Er warnte vor pauschalen Einschränkungen, insbesondere aus Sorge, dass "China solche Einschränkungen nicht haben wird und... in der KI zurückzufallen, wäre meiner Meinung nach sehr gefährlich für die Welt."

Im Rückblick auf seinen Weg bekräftigte Altman seine lebenslange Faszination für KI, trotz Phasen, in denen ihm "damals klar war, dass KI überhaupt nicht funktionierte". Er teilte eine eindringliche Erinnerung an frühe Deep-Learning-Bemühungen: "Es war so verhasst, die Leute, Mann, als wir anfingen, das herauszufinden, sagten die Leute einfach: absolut nicht. Das Feld hasste es so sehr. Investoren hassten es auch." Doch dann "gingen die Lichter an", was bewies, dass die Überzeugung von fundamentalen Durchbrüchen weit verbreitete Skepsis überwinden kann. Zukünftigen Gründern und Investoren riet er davon ab, "Muster von früheren Durchbrüchen abzugleichen", und forderte sie stattdessen auf, "tief in den Schützengräben Ideen zu erforschen", um die wirklich neuartigen Möglichkeiten zu entdecken, die eine nahezu kostenlose AGI erschließen wird.

Key Insights:

  • Das Eintreffen von AGI wird wahrscheinlich eine kontinuierliche Anpassung für die Gesellschaft sein, keine "Urknall"-Singularität, obwohl beängstigende Momente möglich sind.
  • Regulierung sollte sorgfältig auf "extrem übermenschlich fähige" Grenzmodelle abzielen, nicht auf pauschale Beschränkungen, die die nützliche KI-Entwicklung und die nationale Wettbewerbsfähigkeit behindern könnten.

Key Practices:

  • Die langfristige Verfolgung grundlegender Durchbrüche auch bei branchenweiter Skepsis annehmen.
  • Zukünftige Innovationen in einer AGI-reichen Welt werden von Gründern und Investoren verlangen, "tief in den Schützengräben Ideen zu erforschen", anstatt vergangene Erfolge nachzumustern.

"Ich bin fest davon überzeugt, dass Gesellschaft und Technologie sich gemeinsam entwickeln müssen. Man kann das Ding nicht einfach am Ende abwerfen. So funktioniert es nicht." - Sam Altman