Gemini et ChatGPT remportent des médailles d'or aux Olympiades internationales de mathématiques

L' entreprise d'IA aurait également contacté l'IMO pour lui communiquer les résultats.

Gemini et ChatGPT remportent des médailles d'or aux Olympiades internationales de mathématiques

Photo Credit: Unsplash/Artturi Jalli

Points forts
  • Gemini et ChatGPT ont gagné l’or à l’IMO 2025
  • OpenAI critiqué pour une annonce trop rapide
  • Gemini a résolu les épreuves sans aide humaine
Publicité
Cette année, Gemini et ChatGPT ont concouru et remporté des médailles d'or aux Olympiades internationales de mathématiques (IMO) . Officiellement inscrit à la compétition, le chatbot d' intelligence artificielle (IA) de Google DeepMind a démontré sa capacité à répondre à cinq des six questions tout en respectant les consignes du test et sans intervention humaine . Le test, quant à lui , a été mené selon le modèle de recherche expérimentale d'OpenAI , et les résultats ont été examinés plus en détail. Selon l' entreprise d' IA basée à San Francisco, les scores ont été attribués à l' unanimité .

Alexander Wei, membre de l'équipe technique d' OpenAI, et Demis Hassabis, PDG de Google DeepMind, ont tous deux révélé dans des tweets séparés sur X (anciennement Twitter) que leurs chatbots avaient obtenu la médaille d' or en 2025 , selon moi . Gemini et ChatGPT ont tous deux obtenu un score de 35 sur 42 , suffisant pour une médaille d'or , et ont résolu cinq des six défis. OpenAI a utilisé un modèle de recherche expérimentale non identifié pour les Olympiades , tandis que le modèle Gemini Deep Think a été utilisé pour la compétition.

Parmi les concours de mathématiques destinés aux écoliers, l'IMO est l'un des plus anciens. Depuis sa création en 1959 en Roumanie, le concours s'est développé et accueille désormais des élèves de plus de 100 pays. Il ne s'agit pas de problèmes avec solutions, mais plutôt de démonstrations mathématiques . Les participants doivent donc produire une démonstration en utilisant la logique, divers théorèmes mathématiques et leur compréhension des mathématiques appliquées . Les participants se voient ensuite attribuer des points en fonction de l'évaluation de la qualité de la démonstration par les examinateurs .

Selon Hassabis , Gemini a pu réaliser la tâche en 4,5 heures en langage naturel et générer des preuves mathématiques directement à partir des spécifications du problème . Le modèle Gemini Deep Think amélioré sera désormais accessible à un nombre limité de mathématiciens et de testeurs avant d'être mis à la disposition des membres Google AI Ultra .

Un article de TechCrunch affirme qu'OpenAI a également participé au tournoi , bien que de manière officieuse. Selon certaines sources , l' entreprise aurait fait appel à trois anciens médaillés de l' IMO comme examinateurs externes , familiarisés avec le système de notation . L' entreprise d'IA aurait également contacté l'IMO pour lui communiquer les résultats. 

Dans un autre article , Hassabis a subtilement critiqué OpenAI pour ne pas avoir respecté toutes les directives formelles et les procédures fastidieuses imposées par l'OMI aux autres laboratoires d'IA . « Nous n'avons pas fait d'annonce vendredi , car nous avons respecté la demande initiale du conseil d'administration de l'OMI , qui demandait à tous les laboratoires d'IA de ne partager leurs résultats », a- t-il ajouté, faisant allusion à l'annonce prématurée des résultats d'OpenAI vendredi .
 
Partager sur Facebook Gadgets360 Twitter ShareTweet Partager Snapchat Reddit

Publicité

Publicité

© Copyright Red Pixels Ventures Limited 2025. All rights reserved.
Trending Products »
Latest Tech News »