OpenAI Explore les TPU de Google Cloud Face aux Coûts d’Inférence Élevés

Dans le monde de l’intelligence artificielle (IA), la gestion des coûts d’inférence est devenue un enjeu crucial pour les entreprises, notamment pour OpenAI. En réponse à cette problématique, OpenAI teste actuellement les Tensor Processing Units (TPU) de Google Cloud, en particulier le modèle Ironwood, récemment présenté lors de l’événement Next.

Les budgets d’exploitation liés à l’inférence, qui se chiffrent à plus de 50 % des coûts de traitement d’OpenAI, suscitent de réelles inquiétudes, surtout face à la pénurie de GPU Nvidia et à leur coût grandissant. Ces tests visent à évaluer l’efficacité des TPU de Google qui, bien que moins puissants que les dernières générations de GPU Nvidia, promettent un coût par inférence significativement plus bas et une meilleure utilisation des ressources.

Selon des analystes, le secteur de l’IA pourrait être en pleine transition, se tournant vers des alternatives aux GPU traditionnels en réponse à la montée exponentielle des coûts. Les estimations de dépenses en puces pour l’inférence de l’IA publique pourraient atteindre 120 milliards de dollars d’ici 2026, et dépasser les 1100 milliards de dollars d’ici 2028.

OpenAI envisage une diversification de ses fournisseurs, ce qui pourrait réduire sa dépendance à Nvidia et lui permettre de mieux négocier les tarifs. Ces tests préliminaires avec les TPU de Google, bien qu’ils ne prévoient pas encore un déploiement à grande échelle, indiquent une volonté d’explorer de nouvelles solutions pour faire face aux exigences croissantes du marché.

La réussite de ce tournant technologique pourrait non seulement alléger le poids financier d’OpenAI, mais aussi redéfinir les normes dans le secteur de l’IA, incitant d’autres acteurs à explorer des options similaires.

Pour en savoir plus, vous pouvez consulter l’article complet ici : Le Monde Informatique.