Op 13 oktober 2025 kondigde OpenAI een belangrijk keerpunt aan in zijn technische strategie door een partnerschap te ondertekenen met Broadcom gericht op het ontwerpen en implementeren van aangepaste AI-versnellers. Het doel: een op maat gemaakte hardware-infrastructuur creëren ter ondersteuning van de exponentiële groei van haar modellen, zoals ChatGPT en Sora, terwijl de afhankelijkheid van traditionele leveranciers afneemt.
Belangrijkste punten van de overeenkomst
10 gigawatt aan AI-versnellers
De overeenkomst voorziet in de inzet van 10 gigawatt (GW) AI-accelerators ontworpen door OpenAI en gebouwd met Broadcom-netwerktechnologieën. Deze systemen zullen worden geïntegreerd in complete racks die Ethernet, PCIe en optische chips en oplossingen combineren. De industrialisatie zal naar verwachting in de tweede helft van 2026 beginnen en eind 2029 voltooid zijn.
Respectievelijke rollen
OpenAI : ontwerper van versnellers, met de wens om de lessen die zijn geleerd uit de softwareontwikkeling van zijn modellen, te integreren in de hardware.
Broadcom : verantwoordelijk voor de productie en integratie van racks en benodigde netwerkcomponenten, met expertise op het gebied van snelle verbindingen.
Dit partnerschap volgt op eerdere overeenkomsten van OpenAI met Nvidia en AMD, maar kenmerkt zich door een meer "verticale" oriëntatie: OpenAI probeert nu meer controle te krijgen over het hardwarecomponent van zijn infrastructuur.
Marktreacties en financiële gevolgen
Bij de aankondiging, de actie Broadcom steeg bijna 9 tot 10 procent op de financiële markten. Analisten zijn van mening dat deze samenwerking de toekomstige inkomsten van Broadcom in de AI-sector zou kunnen verhogen, met name vanwege de sterke vraag naar zeer efficiënte inferentiehardware.
Er zijn echter geen specifieke bedragen voor het contract bekendgemaakt. Experts schatten de kosten van een gigawatt aan AI-infrastructuur vaak op tientallen miljarden dollars, wat suggereert dat de totale deal een aanzienlijke financiële investering zou kunnen betekenen.

Technische problemen en uitdagingen
Geoptimaliseerd hardwareontwerp
OpenAI wil dat zijn chips software-optimalisaties integreren: geheugenroutering, computerarchitectuur, parallellisme en latentie. De uitdaging is om hardware en modellen samen te laten evolueren om superieure prestaties te bereiken.
Implementatieschaal
Het produceren en assembleren van 10 GW aan gespecialiseerde apparatuur tegen 2029 vormt een grote logistieke en industriële uitdaging. Dit vereist zeer geavanceerde en betrouwbare productielijnen.
Betrouwbaarheid, latentie en compatibiliteit
De modules moeten feilloos werken, de latentie minimaliseren en compatibel zijn met bestaande algoritmen, AI-frameworks en netwerkinfrastructuren.
Concurrentierisico
Ook al vormt dit soort aangepaste chips nog geen bedreiging voor de suprematie van Nvidia, ze maken wel deel uit van een sterke trend: Google (TPU), Meta en Amazon ontwikkelen al hun eigen circuits.
Verwachte gevolgen voor ChatGPT en het AI-ecosysteem
Snellere respons en grotere schaal : met meer gedistribueerde rekenkracht, ChatGPT meer verzoeken tegelijk en soepeler kunnen verwerken.
Meer geavanceerde functies : nieuwe modules (Deep Research, multimodaliteit, complexe agenten) zouden breder geactiveerd kunnen worden.
Strategische onafhankelijkheid :Doordat OpenAI een deel van de hardware onder controle heeft, heeft het meer vrijheid in zijn technologische keuzes, zonder uitsluitend afhankelijk te zijn van derden.
Perspectieven en conclusie
Met deze samenwerking heeft OpenAI een nieuwe stap voorwaarts gezet: het wordt zowel hardwarebouwer als modelbouwer. De samenwerking met Broadcom maakt de weg vrij voor een AI-infrastructuur op maat, ontworpen voor de specifieke behoeften van OpenAI. Als alles volgens schema verloopt, zullen we in 2026 de eerste racks van de productielijn zien rollen.
Voorlopig moet er nog veel bevestigd worden: de daadwerkelijke kosten, de uiteindelijke prestaties, de economische haalbaarheid. Maar deze gedurfde gok zou de hardwarefundamenten van de toekomst van AI opnieuw kunnen definiëren – en ChatGPT centraal stellen in een geïntegreerd ecosysteem, van model tot chip.


