Published on

OpenAI o3-Mini: Erwartete Markteinführung, Leistung und AGI-Energiebedarf

Autoren
  • avatar
    Name
    Ajax
    Twitter

OpenAI's o3-Mini und seine erwartete Markteinführung

Die Technologie-Welt ist begeistert von der bevorstehenden Veröffentlichung von OpenAI's o3-mini, die innerhalb weniger Wochen erfolgen soll. Diese Ankündigung kam direkt von OpenAI CEO Sam Altman und bestätigt frühere Spekulationen der Branche. Der o3-mini, eine destillierte Version eines größeren Modells, wird sowohl über eine API als auch eine Weboberfläche zugänglich sein, was einen bedeutenden Schritt zur Zugänglichmachung fortschrittlicher KI darstellt.

OpenAI-Forschungsmitarbeiter Hongyu Ren fügte auch ein interessantes Detail hinzu: Das Unternehmen plant, drei Versionen des o3-mini gleichzeitig zu veröffentlichen – hoch, mittel und niedrig.

Es ist bemerkenswert, dass dies keine völlig neuen Informationen sind, da Altman zuvor eine Veröffentlichung des o3-mini Ende Januar angedeutet hatte, gefolgt vom vollständigen o3-Modell.

Leistung und Funktionen des o3-Mini

Altman hat klargestellt, dass der o3-mini die Leistung des o1-pro nicht übertreffen wird, aber eine höhere Geschwindigkeit bieten wird. Dies könnte einige enttäuschen, die auf einen signifikanten Leistungssprung gehofft hatten, da der o3-mini möglicherweise nur eine geringfügige Verbesserung gegenüber dem o1-mini darstellt.

Die Benchmark-Daten von OpenAI zeichnen jedoch ein differenzierteres Bild. Während die niedrige Version des o3-mini nicht mit der Leistung des o1 in Bereichen wie dem Codeforces-Programmier-Benchmark mithalten kann, zeigt die hohe Version Verbesserungen. Die wichtigste Erkenntnis hier ist die Kosteneffizienz des o3-mini, die ihn äußerst geeignet für Programmieraufgaben macht. Dylan Hunn von OpenAI hat auch die erhöhte Geschwindigkeit des o3-mini beim Programmieren betont.

Die Zukunft der o3-Serie

Um die Nutzer zu beruhigen, hat Altman die Fähigkeiten des vollständigen o3-Modells hervorgehoben und festgestellt, dass es deutlich fortschrittlicher sein wird als der o1-pro und insbesondere der o3-pro. Der o3-pro wird für die 200-Dollar-Pro-Abonnenten zugänglich sein und nicht für die zuvor spekulierten 2.000 Dollar pro Monat.

Was die Nutzungskontingent des o3-mini betrifft, hat Altman es als 'sehr hoch' beschrieben, was impliziert, dass es die o1-Serie übersteigt und für ChatGPT Plus-Abonnenten verfügbar sein wird.

Darüber hinaus hat Altman eine Markenkonvergenz zwischen den GPT- und o-Serienmodellen angedeutet, die für dieses Jahr geplant ist.

AGI's Rechenleistungsbedarf

Abgesehen vom o3-mini ging Altman auch auf Fragen zu AGI ein und bekräftigte, dass AGI erreichbar ist, aber 872 Megawatt Rechenleistung erfordern wird. Zum Vergleich: Das größte US-Kernkraftwerk, Alvin W. Vogtle, hat eine installierte Leistung von 4536 Megawatt, was ausreichen würde, um nur etwa 5 solcher AGIs zu unterstützen.

Laut situational-awareness.ai nähert sich der aktuelle Stromverbrauch von KI diesem Niveau, was darauf hindeutet, dass OpenAI möglicherweise bereits Modelle der nächsten Generation entwickelt hat, möglicherweise sogar AGI erreicht hat, abhängig von der Definition von AGI.