Anthropic va s’appuyer sur un million de puces Google pour entraîner ses modèles Claude
Anthropic a annoncé l’extension de son partenariat avec Google Cloud pour utiliser jusqu’à un million de TPU, représentant une capacité de calcul de plus d’un gigawatt et une valeur de plusieurs dizaines de milliards de dollars. Ces ressources serviront à entraîner les prochaines générations du modèle Claude.
Anthropic prévoit d’élargir son usage des technologies de Google Cloud, incluant jusqu’à un million de processeurs Tensor (TPU). Cette expansion, estimée à plusieurs dizaines de milliards de dollars, vise à entraîner les futures générations de son modèle Claude et devrait permettre de mettre en ligne plus d’un gigawatt de capacité de calcul d’ici 2026, selon un communiqué. Google fournira également des services cloud complémentaires à Anthropic, en plus de la mise à disposition des processeurs TPU.
«Le choix d’Anthropic de renforcer considérablement son usage des TPU reflète le fort rapport performance-prix et l’efficacité constatés depuis plusieurs années», a indiqué Thomas Kurian, CEO de Google Cloud, précisant que ces processeurs reposent sur la septième génération de TPU du fournisseur, baptisée Ironwood.
Anthropic indique servir désormais plus de 300’000 clients professionnels, un chiffre en forte hausse. Le nombre de grands comptes — clients générant chacun plus de 100’000 dollars de revenus récurrents — a été multiplié par sept en un an, selon l’entreprise.
«Cette expansion va nous permettre de répondre à une demande client en forte croissance et de poursuivre nos travaux de recherche sur l’alignement et le déploiement responsable de l’IA à grande échelle», explique Krishna Rao, directeur financier d’Anthropic.
Une stratégie de calcul multi-plateformes
La société précise que cette initiative s’inscrit dans une approche diversifiée reposant sur trois plateformes: les TPU de Google, les puces Trainium d’Amazon et les GPU de NVIDIA. Anthropic indique rester engagée dans son partenariat avec Amazon Web Services, son principal fournisseur cloud, notamment dans le cadre du projet Rainier, un cluster de calcul composé de centaines de milliers de puces d’IA réparties dans plusieurs centres de données américains.
Selon Reuters, cette expansion intervient dans un contexte de forte tension sur le marché des semi-conducteurs dédiés à l’intelligence artificielle. Les TPU de Google constituent une alternative aux GPU de NVIDIA, dont la disponibilité reste limitée. Le média souligne que OpenAI a récemment signé plusieurs accords pouvant dépasser 1 milliard de dollars pour sécuriser environ 26 gigawatts de capacité de calcul à long terme. Ces initiatives illustrent la course à la puissance de calcul engagée entre OpenAI, Anthropic et Google.
Pour rappel, OpenAI a également renforcé en septembre son partenariat avec CoreWeave (6,5 milliards de dollars) et signé un contrat de 300 milliards de dollars sur cinq ans avec Oracle.