OpenAI stawia na własne procesory AI: multi-miliardowa współpraca z Broadcom

OpenAI stawia na własne procesory AI: multi-miliardowa współpraca z Broadcom

Komentarze

3 Minuty

OpenAI dynamicznie zbliża się do produkcji własnych, dedykowanych procesorów sztucznej inteligencji. Firma ogłosiła podpisanie wieloletniej, multi-miliardowej umowy z Broadcom, której celem jest zaprojektowanie specjalistycznych układów scalonych dla OpenAI. Te zaawansowane chipy mają być wdrażane w centrach danych organizacji, aby sprostać gwałtownie rosnącym wymaganiom obliczeniowym.

Duży zakład na właścicielski silikon AI

Zgodnie z informacjami branżowymi, współpraca pomiędzy OpenAI a Broadcom rozpoczęła się już około 18 miesięcy temu, a obecnie obie firmy sformalizowały kontrakt mający na celu dostarczenie mocy rzędu 10 gigawatów układów scalonych. Jak podaje Wall Street Journal, wartość umowy szacuje się na kilka miliardów dolarów. Porozumienie przewiduje sfinansowanie projektowania hardware’u na zamówienie oraz długoterminowe zabezpieczenie dostaw pod dynamicznie rozwijającą się infrastrukturę AI OpenAI.

Harmonogram, skala i co czeka centra danych

Według ustaleń, Broadcom ma rozpocząć instalacje specjalnych szaf sprzętowych w drugiej połowie 2026 roku, a projektowanie i produkcja chipów mogą potrwać nawet do końca 2029 roku. Taki etapowy model wdrożenia jest typowy dla projektów infrastruktury chmurowej oraz AI: najpierw ograniczone wdrożenia, potem rozbudowa do pełnej skali.

  • Zakres kontraktu: multi-miliardowa umowa na ok. 10 GW chipów.
  • Wdrożenia: instalacje szaf startują w II połowie 2026 r.
  • Projektowanie/produkcja: przewidywana realizacja do roku 2029.

Partnerstwa OpenAI z Nvidia i AMD: strategia dywersyfikacji

OpenAI systematycznie zabezpiecza moce obliczeniowe u wielu dostawców. Z doniesień wynika, że Nvidia zobowiązała się do udostępnienia rozbudowanej infrastruktury — szacowanej na inwestycję odpowiadającą nawet 10 GW mocy, natomiast AMD dostarczy około 6 GW mocy. Według źródeł OpenAI zapłaciła już firmie AMD dziesiątki miliardów dolarów, zdobywając potencjalnie możliwość objęcia udziałów w spółce.

Dlaczego tak wiele partnerstw? Dzięki współpracy z kilkoma dostawcami OpenAI minimalizuje ryzyko związane z ograniczeniem podaży, zyskuje większy wybór architektur i może szybciej skalować infrastrukturę niż w przypadku zależności od jednego dostawcy.

Ekstremalne zapotrzebowanie: 250 GW w osiem lat

Sam Altman, CEO OpenAI, przekazał pracownikom, że firma szacuje potrzebę zgromadzenia aż 250 gigawatów mocy obliczeniowej w ciągu najbliższych ośmiu lat. Dla porównania, taki wolumen stanowi mniej więcej jedną piątą całkowitej mocy produkcyjnej energii elektrycznej USA (ok. 1 200 GW). Budowa tak rozległej infrastruktury AI to koszt rzędu 10 bilionów dolarów, znacznie przekraczający możliwości pojedynczego partnera sprzętowego.

Mimo dużych zobowiązań ze strony dostawców i dynamicznie rosnących przychodów — według prognoz na ten rok, OpenAI ma osiągnąć ok. 13 miliardów dolarów przychodu — firma będzie musiała wdrożyć innowacyjne rozwiązania finansowe oraz nowe modele monetyzacji, by sfinansować tak szeroko zakrojoną ekspansję infrastruktury sztucznej inteligencji.

Co warto obserwować w najbliższych latach?

Należy zwracać uwagę na kluczowe kamienie milowe wdrożeniowe Broadcom (szafy serwerowe w 2026 roku) oraz kolejne ujawnienia dotyczące dostarczanych mocy obliczeniowych przez Nvidia i AMD. Nadchodzące lata pokażą, czy własne układy AI oraz strategie wielodostawcze pozwolą nadążyć za gwałtownie rosnącym popytem na generatywne usługi AI oraz rozwojem infrastruktury data center. OpenAI będzie testować granice tego sektora, tworząc nowe standardy w dziedzinie projektowania architektury sztucznej inteligencji i wdrożeń na masową skalę.

Źródło: smarti

Zostaw komentarz

Komentarze