Selon une personne familière avec la situation , OpenAI a commencé à louer les puces d'IA de Google pour alimenter ChatGPT et ses autres produits, a rapporté Reuters vendredi .
Le fabricant de ChatGPT est l'un des plus gros acheteurs d' unités de traitement graphique (GPU) de Nvidia puisqu'il utilise les espaces IA à la fois pour la construction de modèles et pour le calcul d'inférence .
Dans le cadre d'un partenariat inattendu entre deux des plus grands rivaux dans le domaine de l' IA , OpenAI avait l'intention d' intégrer le service Google Cloud pour répondre à ses demandes croissantes de puissance de traitement , comme Reuters l' avait révélé en exclusivité plus tôt ce mois-ci.
Cet accord avec Google s'inscrit dans le cadre des efforts déployés par l' entreprise pour rendre ses unités de traitement de tenseurs (TPU) internes , auparavant réservées à un usage interne , plus largement accessibles au public . Google a ainsi pu attirer des clients du géant technologique Apple , ainsi que des startups comme Anthropic et Safe Superintelligence, deux concurrents de ChatGPT fondés par d' anciens dirigeants d' OpenAI .
La décision d' OpenAI de louer les TPU de Google marque la fin de la dépendance de l' entreprise aux centres de données de Microsoft , son investisseur, et la première utilisation significative de puces non Nvidia . OpenAI est dirigé par Sam Altman. Selon Information , qui a été le premier à rapporter cette initiative, les TPU pourraient devenir une option plus abordable que les GPU Nvidia .
Selon le rapport, OpenAI pense que les TPU , qu'elle loue via Google Cloud, réduiraient considérablement le coût de l' inférence .
Cependant, selon un employé de Google Cloud cité par The Information, Google, un concurrent d' OpenAI dans la bataille de l'IA , ne loue pas ses TPU les plus puissants à ses concurrents. Contacté par Reuters, OpenAI n'a pas immédiatement répondu et Google a refusé de commenter.
Le fait que Google ait ajouté OpenAI à sa liste de clients démontre comment le géant d'Internet a exploité son matériel et ses logiciels d'IA propriétaires pour stimuler l' expansion de son activité cloud .
Cet accord survient à un moment où la demande mondiale pour des puces d'IA explose, exacerbant la pénurie de GPU Nvidia et forçant de nombreuses entreprises à chercher des alternatives. En intégrant les TPU de Google à ses infrastructures, OpenAI diversifie non seulement ses sources de puissance de calcul, mais réduit aussi sa vulnérabilité aux fluctuations de disponibilité et de prix des GPU. Cela pourrait accélérer le développement de nouveaux modèles d'IA plus performants ou améliorer la réactivité de ChatGPT pour les utilisateurs finaux.