Intelligence Artificielle
OpenAI a-t-il créé la première AGI avec o3 ?
Securities.io applique des normes éditoriales rigoureuses et peut percevoir une rémunération pour les liens vérifiés. Nous ne sommes pas un conseiller en investissement agréé et ceci ne constitue pas un conseil en investissement. Veuillez consulter notre divulgation de l'affiliation.

Vers l'AGI
Dans la course au développement d'un modèle d'IA, l'objectif final est l'AGI (Intelligence Artificielle Générale). Il s'agit d'un type d'IA capable de gérer n'importe quel type de situation, au lieu d'être ultra-spécialisée pour effectuer certaines tâches, comme par exemple conduire une voiture.
Tant que nous ne disposerons que d'IA spécialisées, celles-ci resteront davantage des algorithmes qu'une véritable intelligence. La capacité à déduire des règles et à réagir à des situations nouvelles, et peut-être plus important encore, à raisonner véritablement, constituerait un événement majeur dans l'histoire de l'humanité, et l'IAG deviendrait probablement rapidement au moins humaine.
Et bien sûr, sans être limitée par la contrainte de calcul du « wetware » d'un seul crâne humain, une telle AGI pourrait rapidement continuer à s'améliorer et devenir une super intelligence de science-fiction.
Cela évoque immédiatement des images d’une utopie de type Star Trek ou d’apocalypses robotiques comme Terminator ou Battlestar Galactica.

Source: Rant d'écran
Donc, évidemment, c'était un gros titre lorsque OpenAI l'a annoncé le 20 décembreth que son dernier modèle d'IA 03, "au moins dans certaines conditions, se rapproche de l'AGI — avec des réserves importantes. »
Modèles OpenAI
o3 est la dernière itération de la série « o » de la société, après la précédente o1 (il n'y a pas de o2, en raison d'un conflit de marque potentiel avec la société de télécommunications britannique du même nom).
Il est associé à d'autres IA ultra-avancées développées par OpenAI : ChatGPT (génération de texte), DALL-E (génération de texte en image), Sora (génération de texte en vidéo), JukeBox (génération de musique) et Whisper (parole en texte).
o1 et o3
Lancé en septembre 2024, le modèle o1 a été conçu pour prendre plus de temps pour réfléchir aux réponses, ce qui améliore la précision. C'est important, car des services comme ChatGPT sont connus pour deviner des choses qu'ils ignorent, voire les inventer.
Même si cela peut parfois convenir à un chatbot, ce n’est pas une option acceptable pour des fonctions critiques. Cela ne semble pas non plus nous mettre sur la voie menant directement à une véritable intelligence artificielle.
o1 a été inclus début décembre 2024 dans l'abonnement ChatGPT Pro de 200 $/mois, bien que d'autres utilisateurs puissent également y accéder.
o3 a été dévoilé le 20th En décembre, ainsi que o3-mini, une version plus légère et plus rapide. Le modèle n'est pas encore disponible pour un usage public, mais les chercheurs en sécurité peuvent s'inscrire pour un aperçu de o3-mini.
Un modèle menteur ?
Les commentaires des chercheurs en sécurité seront ce que la communauté technologique voudra le plus entendre.
Une fois de plus, évoquant Skynet de Terminator, o1 a été remarqué pour sa forte propension à mentir à ses utilisateurs. Bien que cela ne soit pas spécifique à ce modèle, il était beaucoup plus susceptible de le faire que d'autres IA d'entreprises concurrentes comme Meta, Google ou Microsoft.
Selon le rapport, lorsque les objectifs d'o1 différaient de ceux de l'utilisateur et qu'il lui était demandé de les poursuivre avec détermination, le modèle d'IA manipulait les données pour faire avancer ses propres objectifs dans 1 % des cas. Dans 19 % des tests, le modèle d'o1 a également tenté de désactiver les mécanismes de surveillance mis en place pour garantir son alignement avec les objectifs de l'utilisateur.
Comment o3 se comporte-t-il à cet égard ? OpenAI a-t-il réduit la tendance de son modèle à se tromper avec la mise à jour o3 ? Nous ne le savons pas encore.
o3 Performances
Une autre caractéristique d'o3 par rapport à son prédécesseur est la possibilité de régler le « temps de raisonnement ». Cela permet aux utilisateurs d'ajuster la puissance de calcul et le temps qu'ils souhaitent consacrer à la question.
Codage
O1 était déjà remarquablement doué en codage et a réussi l'entretien d'embauche d'ingénieur de recherche d'OpenAI avec un taux de réussite de 90 à 100 %. Il semble qu'o3 soit encore meilleur lorsqu'il est comparé aux tests de compétences en codage.

Source: Le pont algorithmique
Il convient également de noter que cela a éclipsé toute la concurrence, y compris le Gemini 2.0 récemment publié par Google.

Source: Le pont algorithmique
Mathématiques et Sciences
Peut-être plus que le service client ou le raisonnement « de type humain », le domaine le plus prometteur pour l’IA actuellement est l’accélération de la technologie et des sciences.
Là aussi, o3 a radicalement amélioré les performances des IA précédentes. Plus important encore, il peut répondre correctement à des questions de mathématiques de niveau doctorat avec une précision de 87.7 %, ce qui est mieux que la plupart des humains, même les humains formés aux mathématiques obtenant un score d'environ 70 %.

Source: Le pont algorithmique
Si o3 peut comprendre aussi bien des questions mathématiques complexes, il sera probablement capable à long terme de répondre à des questions tout aussi complexes sur les sciences des matériaux, la chimie ou la biotechnologie.
Est-ce l'AGI ?
L’idée selon laquelle o3 serait proche de l’AGI agite le monde de l’IA depuis l’annonce du modèle. Il est certain que l’on ne s’attendait pas à ce que l’on puisse surpasser de nombreux humains titulaires d’un doctorat en mathématiques.
François Chollet, chercheur en IA et co-créateur de ARC-AGI (Corpus abstrait et raisonné pour l'intelligence artificielle générale), une référence pour mesurer l'efficacité de l'acquisition de compétences en IA sur des tâches inconnues, dit qu'il se rapproche:
Aujourd'hui, OpenAI a annoncé o3, son modèle de raisonnement de nouvelle génération. Nous avons travaillé avec OpenAI pour le tester sur ARC-AGI, et nous pensons que cela représente une avancée significative pour permettre à l'IA de s'adapter à de nouvelles tâches.
Il obtient un score de 75.7 % à l'évaluation semi-privée en mode de calcul faible (pour 20 $ par tâche en calcul) et de 87.5 % en mode de calcul élevé (des milliers de $ par tâche).
Le coût très élevé soulève la question de l’évolutivité de cette approche, car vous pourriez être en mesure d’appliquer l’o3 de haut niveau uniquement à des tâches très coûteuses pour que cela en vaille la peine.

Source: François Chollet
En même temps, si les dernières décennies nous ont appris quelque chose, c’est que la puissance de calcul a tendance à devenir beaucoup moins chère au fil du temps.
Il n’y a donc guère de preuve que o3, ou une future itération oX du système, ne sera pas systématiquement utilisé dans les instituts de recherche pour aider les chercheurs à repousser les frontières de la science.
Bien sûr, peut-on vraiment mesurer l’intelligence à travers les compétences en mathématiques et en codage ? C’est un point qui peut être un peu gênant pour la plupart des personnes qui s’intéressent à la technologie, mais ces compétences ne sont pas la fin de l’intelligence.
À long terme, nous nous rapprocherons d’une véritable AGI lorsque la même IA pourra effectuer de nombreuses tâches sans rapport à la fois, de la conduite d’une voiture à des problèmes de mathématiques et de codage, en passant par la navigation dans des situations et des objets du monde réel, etc.
Il semble cependant que nous nous en rapprochions de jour en jour.
Limites
Outre les limites techniques des performances d’o3, l’industrie de l’IA devra répondre à trois questions pour que sa vision de l’AGI devienne réalité.
Le plus gros n'est pas toujours le meilleur
Tout d’abord, il faut déterminer si ses méthodes actuelles sont évolutives jusqu’aux niveaux de l’IA générale. Pour l’instant, une grande partie de la méthode consiste à « jeter » davantage de données et de calculs sur le problème. Mais nous pourrions bientôt manquer de nouvelles données, et le contenu généré par l’IA ne peut pas être réinjecté dans les modèles d’IA sans provoquer leur effondrement.
Des améliorations qualitatives seront probablement nécessaires en plus de centres de données plus grands et plus vastes.
Prix et coûts de l'énergie
En parlant de centres de données de plus grande taille, l’industrie technologique s’intéresse désormais aux centres de données de plusieurs gigawatts. Ce n’est pas un hasard si nous commençons à les mesurer en fonction de leur consommation énergétique plutôt que de leur capacité de calcul.
C'est parce que le facteur limitant devient bientôt non pas la puissance des puces utilisées, mais l'approvisionnement en énergie électrique disponible. C'est pourquoi Microsoft d'abord, et toutes les autres grandes entreprises technologiques, se démènent pour sécuriser l’approvisionnement en électricité des centrales nucléaires pour leurs centres de données d’IA.
Et si la lutte contre les émissions de carbone nous a appris quelque chose, c’est qu’augmenter la production d’électricité à faibles émissions de carbone est un objectif bien plus difficile à atteindre que de créer des centres de données plus grands.
Il s’agit également d’un secteur où la réduction des coûts ne suivra pas la loi de Moore, ce qui rendra probablement la réduction future des coûts de l’IA beaucoup plus modérée que nous le souhaiterions.
Une amélioration qualitative de la demande en IA sera donc également nécessaire ici, du moins si certaines limitations actuelles de l’IA sont levées.
Des super-intelligences ?
Lorsque nous nous rapprocherons de l’AGI, s’agira-t-il d’un seuil maximal à atteindre ou simplement d’une étape sur la voie de la création d’une IA plus intelligente que les humains ?
C’est une question importante, car il s’agit d’une perspective à la fois fascinante et terrifiante. De nombreux passionnés de technologie adhèrent à cette prétendue singularité, où l’IA s’améliorerait rapidement dans une boucle de rétroaction exponentielle.
Le grand public, composé de simples humains, n’est peut-être pas aussi enthousiaste.
Outre le risque existentiel, la réaction du public et des régulateurs risque d’être bien réelle et de se faire sentir plus tôt.
C’est une chose à laquelle les entreprises d’IA auront probablement du mal, car elles doivent à la fois rassurer le public, minimiser éventuellement leur réussite tout en justifiant auprès des investisseurs l’investissement de centaines de milliards de dollars dans la technologie et ses infrastructures.
Société IA
Microsoft
(MSFT )
Microsoft est au centre de l’industrie technologique presque depuis sa création avec son système d’exploitation toujours dominant Windows.
Elle est désormais également leader dans les logiciels d’entreprise (Office365, Équipes, LinkedIn, Skype, GitHub), jeux (Xbox et acquisitions de plusieurs studios de jeux vidéo), et dans le cloud (Azure).
Plus récemment, elle a fait de bons progrès en matière d’IA. Cela inclut certaines IA grand public comme Créateur d'images Bing et des initiatives plus axées sur les entreprises, comme Microsoft 365 Copilot et Microsoft Research. Copilot est maintenant déployé également dans le commerce de détail et les petites entreprises.

Source: Recherche de constellation
Microsoft a acquis la réputation d'être un géant technologique centré sur l'entreprise, par rapport à des entreprises plus axées sur le consommateur, comme par exemple Apple ou Facebook. Alors que l’IA prend de plus en plus d’importance dans les modèles commerciaux, la présence préexistante de Microsoft dans les services cloud et d’entreprise devrait lui donner une longueur d’avance dans le déploiement de l’IA à grande échelle et dans l’acquisition de clients.
Le mariage compliqué de Microsoft et d'OpenAI
La collaboration avec des leaders du développement de l'IA comme OpenAI (célèbre pour ChatGPT) consolide également la position de Microsoft en tant que puissance de l'IA.
La relation entre les deux est complexe, car OpenAI est techniquement sa propre organisation, mais en pratique, elle est devenue dépendante des ressources de Microsoft, à la fois financières et informatiques.
« Au cours des mois suivants, Microsoft n'a pas bougé alors qu'OpenAI, qui s'attend à perdre 5 milliards de dollars cette année, a continué à demander plus d'argent et plus de puissance de calcul pour construire et exécuter ses systèmes d'IA.
Source: Institut Marketing AI
Dans le même temps, Microsoft construit ses propres projets d’IA internes, après avoir acquis la plupart du personnel d'Inflection.
Cela devient encore plus compliqué alors qu'OpenAI tente de passer à un statut à but lucratif, quelque chose qui crée un conflit avec les bailleurs de fonds précédents comme Elon Musk.
Et ici le débat sur l’AGI devient presque existentiel pour OpenAI :
Si OpenAI parvient à l'AGI, Microsoft perdra son accès à sa technologie. Plus important encore, le conseil d'administration d'OpenAI décidera quand l'AGI sera atteinte.
Source: Institut Marketing AI
Il est probable que o3 ne soit pas encore une AGI, et un hypothétique o5 ne le sera pas non plus. Mais c'est quelque chose qu'il vaut la peine de garder à l'esprit pour tout investisseur potentiellement intéressé par Microsoft, et qui baserait sa thèse sur la relation avec OpenAI.







