Meta wil Alphabets AI-chips?
datum 25 november 2025
Meta pompt enorme bedragen in kunstmatige intelligentie voor Facebook, Instagram en WhatsApp. Om al die modellen te trainen en te laten draaien, kocht het bedrijf vooral Nvidia-chips, tegen hoge prijzen en met beperkte beschikbaarheid. Dat maakt de AI-strategie duur, kwetsbaar en lastig te plannen. In die context wordt duidelijk waarom Meta nu juist bij Alphabet aanklopt. Google heeft met zijn eigen TPU-chips een alternatief dat schaal, kostenvoordeel en praktijkervaring combineert.
Meta’s dure AI-rekening
De afgelopen jaren zijn de investeringen van Meta in datacenters en AI-hardware explosief gestegen. Een groot deel daarvan vloeit naar Nvidia-systemen, die weliswaar krachtig zijn, maar ook prijzig en schaars. Voor elk nieuw AI-product moeten er meer GPU’s bij, met een rekening die oploopt tot tientallen miljarden per jaar. Dat drukt de marges en maakt Meta afhankelijk van de prijs en levering van één dominante leverancier. Voor een bedrijf dat zijn toekomst op AI zet, is die afhankelijkheid een strategisch risico.
Alphabet als chipontwerper
Alphabet, het moederbedrijf van Google, bouwde in stilte een eigen hardwarebasis onder zijn AI-ambities. In de datacenters draaien al jaren Tensor Processing Units, speciaal ontworpen chips voor het trainen en gebruiken van grote AI-modellen in diensten als Search, YouTube en advertenties. Voor Pixel-telefoons ontwikkelt Google Tensor-chips die lokale AI-taken versnellen. De fabriek staat niet bij Alphabet zelf, maar bij partijen als TSMC of Samsung. Toch is de hele architectuur, optimalisatie en software-integratie in handen van Google. Dat betekent dat Alphabet niet alleen een klant van AI-hardware is, maar ook een aanbieder van een compleet AI-platform.
TPU’s passen bij Meta
Juist dat platform maakt TPU’s interessant voor Meta. De chips zijn ontworpen voor workloads die veel lijken op die van Meta. Denk aan grote taalmodellen, aanbevelingssystemen en vision-modellen die continu moeten draaien voor miljarden gebruikers. Omdat Google zijn eigen diensten ermee runt, zijn de kinderziektes er grotendeels uit. Voor Meta zijn TPU’s daarmee geen experiment, maar een oplossing die dagelijks op enorme schaal wordt gebruikt. Bovendien claimt Google dat TPU-systemen een betere verhouding bieden tussen prestaties, stroomverbruik en kosten dan veel bestaande alternatieven. Dat is precies de combinatie waar Meta naar zoekt.
Meer macht, minder risico
Door met Alphabet in zee te gaan, krijgt Meta er een tweede serieuze leverancier van AI-rekenkracht bij, naast Nvidia en de eigen MTIA-chips. In de plannen die nu rondgaan, zou Meta eerst TPU-capaciteit afnemen via Google Cloud, en later mogelijk fysieke TPU-systemen in zijn eigen datacenters plaatsen. Dat geeft flexibiliteit: snel opschalen in de cloud, terwijl op de achtergrond de eigen infrastructuur wordt aangepast. Tegelijk vergroot het de onderhandelingspositie richting Nvidia, omdat Meta niet meer volledig vastzit aan één route.
Wat dit kan betekenen
Als een TPU-deal er daadwerkelijk komt, kan Meta zijn AI-plannen met minder kostenstress uitrollen. Goedkopere, voorspelbaardere rekenkracht maakt het eenvoudiger om nieuwe AI-functies op grote schaal naar gebruikers te brengen. Voor Alphabet betekent het een extra inkomstenbron in cloud en hardware, plus erkenning dat TPU’s meer zijn dan interne Google-technologie. En in de bredere AI-markt zou het een verschuiving betekenen van een bijna eenzijdige afhankelijkheid van Nvidia naar een landschap waarin Alphabet een zichtbare tweede AI-leverancier wordt voor bedrijven als Meta.