13 października 2025 r. firma OpenAI ogłosiła ważny punkt zwrotny w swojej strategii technicznej, podpisując umowę o partnerstwie z Broadcom Celem jest zaprojektowanie i wdrożenie niestandardowych akceleratorów AI. Cel: stworzenie infrastruktury sprzętowej szytej na miarę, która będzie wspierać wykładniczy wzrost modeli, takich jak ChatGPT i Sora, jednocześnie zmniejszając zależność od tradycyjnych dostawców.
Kluczowe punkty umowy
10 gigawatów akceleratorów AI
Porozumienie przewiduje rozmieszczenie 10 gigawatów (GW) Akceleratory AI zaprojektowane przez OpenAI i zbudowane w oparciu o technologie sieciowe Broadcom. Systemy te zostaną zintegrowane w kompletne szafy rack, łączące układy i rozwiązania Ethernet, PCIe i optyczne. Industrializacja ma rozpocząć się w drugiej połowie 2026 roku, a zakończyć do końca 2029 roku.
Odpowiednie role
OpenAI :projektant akceleratorów, pragnący zintegrować w sprzęcie wnioski wyciągnięte z rozwoju oprogramowania swoich modeli.
Broadcom :odpowiada za produkcję, integrację stojaków i niezbędnych komponentów sieciowych, wnosząc ponadto swoją wiedzę specjalistyczną w zakresie szybkich połączeń.
Partnerstwo to jest kontynuacją wcześniejszych umów OpenAI z Nvidia i AMD, ale oznacza bardziej „pionową” orientację: OpenAI stara się teraz kontrolować większą część sprzętowych komponentów swojej infrastruktury.
Reakcje rynku i skutki finansowe
W ogłoszeniu podano, że akcja Akcje Broadcomu wzrosły o prawie 9–10 procent na rynkach finansowych. Analitycy uważają, że ta współpraca może zwiększyć przyszłe przychody Broadcomu w sektorze sztucznej inteligencji, szczególnie ze względu na duże zapotrzebowanie na wysokowydajny sprzęt do wnioskowania.
Nie ujawniono jednak żadnych konkretnych kwot kontraktu. Eksperci często szacują koszt gigawata infrastruktury AI na dziesiątki miliardów dolarów, co sugeruje, że cała umowa może stanowić znaczące zobowiązanie finansowe.

Problemy i wyzwania techniczne
Zoptymalizowana konstrukcja sprzętu
OpenAI chce, aby jego układy scalone integrowały optymalizacje oprogramowania: routing pamięci, architekturę obliczeniową, paralelizm i opóźnienia. Wyzwaniem jest zapewnienie koewolucji sprzętu i modeli w celu osiągnięcia wyższej wydajności.
Skala wdrożenia
Wyprodukowanie i montaż 10 GW specjalistycznego sprzętu do 2029 roku stanowi poważne wyzwanie logistyczne i przemysłowe. Wymaga to wysoce zaawansowanych i niezawodnych linii produkcyjnych.
Niezawodność, opóźnienie i kompatybilność
Moduły muszą działać bezbłędnie, minimalizować opóźnienia i być kompatybilne z istniejącymi algorytmami, strukturami sztucznej inteligencji i infrastrukturami sieciowymi.
Ryzyko konkurencyjne
Nawet jeśli tego typu niestandardowe układy scalone nie zagrażają jeszcze dominacji firmy Nvidia, wpisują się w silny trend: Google (TPU), Meta i Amazon już opracowują własne układy scalone.
Oczekiwane skutki dla ChatGPT i ekosystemu AI
Szybsza reakcja i większa skala :z większą rozproszoną mocą obliczeniową, ChatGPT mogło przetwarzać więcej żądań jednocześnie i sprawniej.
Bardziej zaawansowane funkcje :nowe moduły (głębokie badania, multimodalność, złożeni agenci) mogą być szerzej aktywowane.
Niezależność strategiczna :kontrola nad częścią sprzętu pozwala OpenAI na większą swobodę w wyborze technologii, bez konieczności polegania wyłącznie na osobach trzecich.
Perspektywy i wnioski
Dzięki tej współpracy OpenAI wykonało nowy krok naprzód: stało się zarówno producentem sprzętu, jak i konstruktorem modeli. Partnerstwo z Broadcom toruje drogę do stworzenia infrastruktury AI szytej na miarę, dostosowanej do specyficznych potrzeb firmy. Jeśli wszystko pójdzie zgodnie z harmonogramem, pierwsze szafy zjadą z linii produkcyjnej do 2026 roku.
Na razie wiele pozostaje do potwierdzenia: rzeczywiste koszty, ostateczna wydajność, opłacalność ekonomiczna. Jednak ten śmiały zakład może na nowo zdefiniować sprzętowe podstawy przyszłości sztucznej inteligencji – i umieścić ChatGPT w centrum zintegrowanego ekosystemu, od modelu po krzem.


