- Published on
Nadchodzące wydanie o3-Mini od OpenAI i zapotrzebowanie na moc obliczeniową AGI
Premiera o3-Mini od OpenAI
Świat technologii jest podekscytowany zbliżającą się premierą o3-mini od OpenAI, która ma nastąpić w ciągu kilku tygodni. Informację tę przekazał bezpośrednio dyrektor generalny OpenAI, Sam Altman, potwierdzając wcześniejsze spekulacje branżowe. o3-mini, będący odchudzoną wersją większego modelu, będzie dostępny zarówno poprzez API, jak i interfejs internetowy, co stanowi znaczący krok w kierunku zwiększenia dostępności zaawansowanej sztucznej inteligencji.
Badacz OpenAI, Hongyu Ren, dodał również interesujący szczegół: firma planuje jednocześnie wydać trzy wersje o3-mini – wysoką, średnią i niską. Warto zauważyć, że nie jest to całkowicie nowa informacja, ponieważ Altman wcześniej sugerował premierę o3-mini pod koniec stycznia, a następnie pełnego modelu o3.
Wydajność i funkcje o3-Mini
Altman wyjaśnił, że o3-mini nie przewyższy wydajności o1-pro, ale zaoferuje zwiększoną szybkość. Może to rozczarować niektórych, którzy liczyli na znaczący skok wydajności, ponieważ o3-mini może być jedynie niewielkim ulepszeniem w stosunku do o1-mini.
Jednak dane benchmarkowe OpenAI przedstawiają bardziej zniuansowany obraz. Podczas gdy niska wersja o3-mini może nie dorównywać wydajności o1 w obszarach takich jak benchmark programistyczny Codeforces, wersja wysoka wykazuje poprawę. Kluczowym wnioskiem jest opłacalność o3-mini, co czyni go niezwykle odpowiednim do zadań programistycznych. Dylan Hunn z OpenAI podkreślił również zwiększoną szybkość o3-mini w kodowaniu.
Przyszłość serii o3
Aby uspokoić użytkowników, Altman podkreślił możliwości pełnego modelu o3, zauważając, że będzie on znacznie bardziej zaawansowany niż o1-pro, a zwłaszcza o3-pro. o3-pro będzie dostępny dla subskrybentów Pro za 200 dolarów, a nie za wcześniej spekulowane 2000 dolarów miesięcznie. Jeśli chodzi o limit wykorzystania o3-mini, Altman opisał go jako "naprawdę wysoki", co sugeruje, że przekracza on serię o1 i będzie dostępny dla subskrybentów ChatGPT Plus. Ponadto Altman wskazał na konwergencję marek między modelami serii GPT i o, zaplanowaną na ten rok.
Zapotrzebowanie na moc obliczeniową AGI
Oprócz o3-mini, Altman odniósł się również do pytań dotyczących AGI, powtarzając, że AGI jest osiągalne, ale będzie wymagało 872 megawatów mocy obliczeniowej. Dla kontekstu, największa amerykańska elektrownia jądrowa, Alvin W. Vogtle, ma zainstalowaną moc 4536 megawatów, co wystarczyłoby na obsługę tylko około 5 takich AGI.
Według situational-awareness.ai, obecne zużycie energii przez AI zbliża się do tego poziomu, co sugeruje, że OpenAI może już opracować modele nowej generacji, a nawet osiągnąć AGI, w zależności od definicji AGI.