Gartner: GPT-5 est là, mais l'infrastructure pour soutenir la véritable IA agentique n'est pas (encore)


Vous voulez des informations plus intelligentes dans votre boîte de réception? Inscrivez-vous à nos newsletters hebdomadaires pour obtenir uniquement ce qui compte pour les chefs d'IA en entreprise, les données et les chefs de sécurité. Abonnez-vous maintenant


Voici une analogie: les autoroutes n'existaient aux États-Unis qu'après 1956, quand prévu Par l'administration du président Dwight D. Eisenhower – des voitures puissantes et super rapides comme Porsche, BMW, Jaguars, Ferrari et d'autres étaient là depuis des décennies.

On pourrait dire que l'IA est à ce même point de pivot: alors que les modèles deviennent de plus en plus capables, performants et sophistiqués, l'infrastructure critique dont ils ont besoin pour provoquer une véritable innovation du monde réel n'ont pas encore été pleinement construites.

« Tout ce que nous avons fait, c'est créer de très bons moteurs pour une voiture, et nous sommes super excités, comme si nous avions ce système routier entièrement fonctionnel », a déclaré Arun Chandrasekaran, analyste vice-président distingué de Gartner, à VentureBeat.

Cela mène à une sorte de plateau, dans des capacités de modèle telles que le GPT-5 d'OpenAI: Bien qu'un pas en avant important ne présente que de faibles lueurs d'une IA vraiment agentique.


L'échelle AI atteint ses limites

Les plafonds d'électricité, la hausse des coûts de jetons et les retards d'inférence remodèlent l'entreprise AI. Rejoignez notre salon exclusif pour découvrir à quel point les équipes sont les meilleures:

  • Transformer l'énergie en un avantage stratégique
  • Architecting Inférence efficace pour les gains de débit réels
  • Déverrouiller un retour sur investissement compétitif avec des systèmes d'IA durables

Sécurisez votre place pour rester en avance:


« C'est un modèle très capable, c'est un modèle très polyvalent, il a fait de très bons progrès dans des domaines spécifiques », a déclaré Chandrasekaran. « Mais mon point de vue est que c'est plus un progrès progressif, plutôt qu'un progrès radical ou une amélioration radicale, étant donné toutes les attentes élevées que Openai a fixées dans le passé. »

GPT-5 s'améliore dans trois domaines clés

Pour être clair, Openai a fait des progrès avec GPT-5, selon Gartner, y compris dans les tâches de codage et les capacités multimodales.

Chandrasekaran a souligné qu'Openai a pivoté pour rendre le GPT-5 «très bon» dans le codage, ressentant clairement l'énorme opportunité de la génération AI dans l'ingénierie des logiciels d'entreprise et visant le leadership du concurrent Anthropic dans ce domaine.

Pendant ce temps, les progrès de GPT-5 dans les modalités au-delà du texte, en particulier dans la parole et les images, offrent de nouvelles opportunités d'intégration pour les entreprises, a noté Chandrasekaran.

GPT-5 fait également, si subtilement, fait progresser l'agent AI et la conception d'orchestration, grâce à une utilisation améliorée des outils; Le modèle peut appeler des API et des outils tiers et effectuer des appels d'outils parallèles (gérer plusieurs tâches simultanément). Cependant, cela signifie que les systèmes d'entreprise doivent avoir la capacité de gérer les demandes d'API simultanées en une seule session, souligne Chandrasekaran.

La planification en plusieurs étapes dans GPT-5 permet à une logique commerciale plus de résidence dans le modèle lui-même, réduisant le besoin de moteurs de flux de travail externes, et ses fenêtres de contexte plus grandes (8k pour les utilisateurs gratuits, 32k pour plus à 20 $ par mois et 128k pour Pro à 200 $ par mois) peut «remodeler l'entreprise AI Architecture schémas», a-t-il déclaré.

Cela signifie que les applications qui s'appuyaient auparavant sur des pipelines de génération (RAG) complexes de récupération (RAG) pour contourner les limites de contexte peuvent désormais transmettre des ensembles de données beaucoup plus importants directement aux modèles et simplifier certains flux de travail. Mais cela ne signifie pas que le chiffon n'est pas pertinent; «La récupération des données les plus pertinentes est encore plus rapide et plus rentable que d'envoi des entrées massives», a souligné Chandrasekaran.

Gartner voit un passage à une approche hybride avec une récupération moins stricte, avec des développeurs utilisant GPT-5 pour gérer les «contextes plus gros et plus désordonnés» tout en améliorant l'efficacité.

Sur le plan des coûts, le GPT-5 réduit «considérablement» les frais d'utilisation de l'API; Les coûts de niveau supérieur sont de 1,25 $ pour 1 million de jetons d'entrée et de 10 $ par million de jetons de production, ce qui le rend comparable à des modèles comme Gemini 2,5, mais sous-coincement Claude Opus. Cependant, le taux de prix d'entrée / de sortie de GTP-5 est plus élevé que les modèles antérieurs, que les dirigeants de l'IA devraient prendre en compte lors de l'examen du GTP-5 pour les scénarios à usage élevé, a indiqué Chandrasekaran.

Bye-Bye GPT Versions (Sorta)

En fin de compte, GPT-5 est conçu pour éventuellement remplacer GPT-4O et la série O (ils ont été initialement le coucher du soleil, puis certains réintroduits par OpenAI en raison de la dissidence de l'utilisateur). Trois tailles de modèle (Pro, Mini, Nano) permettra aux architectes de niveler les services en fonction des besoins de coûts et de latence; Des requêtes simples peuvent être gérées par des modèles plus petits et des tâches complexes par le modèle complet, note Gartner.

Cependant, les différences dans les formats de sortie, la mémoire et les comportements appelant les fonctions peuvent nécessiter une revue et un ajustement de code, et parce que GPT-5 peut rendre les solutions de contournement antérieures obsolètes, les développeurs doivent auditer leurs modèles d'invite et leurs instructions système.

En finissant par Sunzting des versions précédentes, « Je pense que ce qu'Openai essaie de faire est de résumer ce niveau de complexité loin de l'utilisateur », a déclaré Chandrasekaran. «Souvent, nous ne sommes pas les meilleurs personnes pour prendre ces décisions, et parfois nous pouvons même prendre des décisions erronées, je dirais.»

Un autre fait derrière l'élimination: «Nous savons tous qu'Openai a un problème de capacité», a-t-il dit, et a ainsi forgé des partenariats avec Microsoft, Oracle (Project Stargate), Google et d'autres pour fournir une capacité de calcul. L'exécution de plusieurs générations de modèles nécessiterait plusieurs générations d'infrastructures, créant de nouvelles implications de coûts et des contraintes physiques.

Nouveaux risques, conseils pour adopter le GPT-5

OpenAI affirme qu'il a réduit les taux d'hallucination jusqu'à 65% dans GPT-5 par rapport aux modèles précédents; Cela peut aider à réduire les risques de conformité et à rendre le modèle plus adapté aux cas d'utilisation de l'entreprise, et ses explications en chaîne de pensées (COT) soutiennent l'auditabilité et l'alignement réglementaire, note Gartner.

Dans le même temps, ces taux d'hallucination inférieurs ainsi que le raisonnement avancé et le traitement multimodal de GPT-5 pourraient amplifier une mauvaise utilisation telle que les arnaques avancées et la génération de phishing. Les analystes conseillent que les flux de travail critiques restent sous revue humaine, même si avec moins d'échantillonnage.

L'entreprise conseille également aux chefs d'entreprise:

  • Pilote et benchmark GPT-5 dans des cas d'utilisation critique de mission, exécutant des évaluations côte à côte contre d'autres modèles pour déterminer les différences de précision, de vitesse et d'expérience utilisateur.
  • Surveiller les pratiques comme le codage d'ambiance qui risque l'exposition aux données (mais sans être offensante à ce sujet, ni risquer de défauts ou des pannes de garde).
  • Réviser les politiques de gouvernance et les directives pour traiter les nouveaux comportements du modèle, élargi les fenêtres de contexte et les compléments sûrs et calibrer les mécanismes de surveillance.
  • Expérimentez avec les intégrations d'outils, le raisonnement paramètres, la mise en cache et le dimensionnement du modèle pour optimiser les performances et utiliser le routage dynamique intégré pour déterminer le bon modèle pour la bonne tâche.
  • Audit et mise à niveau des plans pour les capacités élargies de GPT-5. Cela comprend la validation des quotas API, des sentiers d'audit et des pipelines de données multimodaux pour prendre en charge de nouvelles fonctionnalités et un débit accru. Des tests d'intégration rigoureux sont également importants.

Les agents n'ont pas seulement besoin de plus de calcul; Ils ont besoin d'infrastructures

Sans aucun doute, l'agent AI est un «sujet super chaud aujourd'hui», a noté Chandrasekaran, et est l'un des meilleurs domaines d'investissement dans Gartner's 2025 Cycle de battage médiatique pour Gen Ai. Dans le même temps, la technologie a frappé le «pic des attentes gonflé» de Gartner, ce qui signifie qu'elle a connu une publicité généralisée en raison de premières réussites, à son tour, construisant des attentes irréalistes.

Cette tendance est généralement suivie de ce que Gartner appelle le «creux de la désillusion», lorsque les intérêts, l'excitation et l'investissement se rafraîchissent car les expériences et les implémentations ne parviennent pas (n'oubliez pas: il y a eu deux hivers d'intermédiaire notables depuis les années 1980).

« Beaucoup de fournisseurs sont en train de mettre en place des produits au-delà de ce que les produits sont capables », a déclaré Chandrasekaran. « C'est presque comme s'ils les positionnaient comme étant prêts pour la production, prêts à l'entreprise et allaient offrir une valeur commerciale en un temps très court. »

Cependant, en réalité, le gouffre entre la qualité du produit par rapport aux attentes est large, a-t-il noté. Gartner ne voit pas de déploiements agentiques à l'échelle de l'entreprise; Ceux qu'ils voient sont dans des «petites poches étroites» et des domaines spécifiques comme l'ingénierie logicielle ou l'approvisionnement.

« Mais même ces flux de travail ne sont pas entièrement autonomes; ils sont souvent de nature axée sur l'homme ou semi-autonome », a expliqué Chandrasekaran.

L'un des principaux coupables est le manque d'infrastructures; Les agents ont besoin d'accès à un large ensemble d'outils d'entreprise et doivent avoir la capacité de communiquer avec les magasins de données et les applications SaaS. Dans le même temps, il doit y avoir des systèmes de gestion d'identité et d'accès adéquats en place pour contrôler le comportement et l'accès des agents, ainsi que la surveillance des types de données auxquels il peut accéder (pas personnellement identifiable ou sensible), a-t-il noté.

Enfin, les entreprises doivent être convaincues que les informations que les agents produisent sont dignes de confiance, ce qui signifie qu'elle est exempte de biais et ne contient pas d'hallucinations ou de fausses informations.

Pour y arriver, les vendeurs doivent collaborer et adopter des normes plus ouvertes pour la communication d'outils d'agent à entretien et d'agent à agent, a-t-il conseillé.

«Alors que les agents ou les technologies sous-jacentes peuvent progresser, cette couche d'orchestration, de gouvernance et de données attend toujours d'être construite pour que les agents prospèrent», a déclaré Chandrasekaran. «C'est là que nous voyons beaucoup de friction aujourd'hui.»

Oui, l'industrie progresse avec le raisonnement de l'IA, mais a toujours du mal à faire en sorte que l'IA comprenne comment fonctionne le monde physique. L'IA opère principalement dans un monde numérique; Il n'a pas de fortes interfaces pour le monde physique, bien que des améliorations soient apportées à la robotique spatiale.

Mais «nous sommes très, très, très, très précoces pour ce genre d'environnements», a déclaré Chandrasekaran.

Pour vraiment faire des progrès importants, il faut une «révolution» dans l'architecture ou le raisonnement modèle. « Vous ne pouvez pas être sur la courbe actuelle et vous attendre simplement à plus de données, plus de calcul et espérer arriver à Agi », a-t-elle déclaré.

Cela est évident dans le déploiement du GPT-5 tant attendu: l'objectif ultime qu'Openai s'est défini pour lui-même était Agi, mais « il est vraiment évident que nous sommes loin de cela », a déclaré Chandrasekaran. En fin de compte, «nous sommes toujours très, très loin d'Agi.»



Source link
Attajir
Logo
Comparer les articles
  • Total (0)
Comparer
0
Shopping cart