
Vous voulez des informations plus intelligentes dans votre boîte de réception? Inscrivez-vous à nos newsletters hebdomadaires pour obtenir uniquement ce qui compte pour les chefs d'IA en entreprise, les données et les chefs de sécurité. Abonnez-vous maintenant
Le Protocole de contexte modèle (MCP) est devenu l'un des développements les plus discutés dans l'intégration de l'IA depuis son introduction par Anthropic fin 2024. Si vous êtes à l'écoute de l'espace d'IA, vous avez probablement été inondé de «prises chaudes» sur le sujet. Certains pensent que c'est la meilleure chose de tous les temps; D'autres ne sont pas rapides à souligner ses lacunes. En réalité, il y a du vrai dans les deux.
Un modèle que j'ai remarqué avec l'adoption de MCP est que le scepticisme cède généralement la place à la reconnaissance: ce protocole résout de véritables problèmes architecturaux que les autres approches n'ont pas. J'ai rassemblé une liste de questions ci-dessous qui reflètent les conversations que j'ai eues avec les autres constructeurs qui envisagent d'amener MCP dans des environnements de production.
1. Pourquoi devrais-je utiliser MCP sur d'autres alternatives?
Bien sûr, la plupart des développeurs qui envisagent MCP connaissent déjà des implémentations comme Openai GPTS personnalisésFonction de vanille appelant, API de réponses avec l'appel de fonction et les connexions codées en dur à des services comme Google Drive. La question n'est pas vraiment de savoir si MCP remplace Ces approches – sous le capot, vous pouvez absolument utiliser l'API de réponses avec des appels de fonction qui se connectent toujours à MCP. Ce qui compte ici, c'est la pile résultante.
Malgré tout le battage médiatique sur MCP, voici la vérité droite: ce n'est pas un énorme saut technique. MCP «enveloppe» essentiellement les API existantes d'une manière qui est compréhensible pour les modèles de langage grand (LLM). Bien sûr, de nombreux services ont déjà une spécification OpenAPI que les modèles peuvent utiliser. Pour les projets petits ou personnels, l'objection que MCP «n'est pas si grave» est assez juste.
La série IA Impact revient à San Francisco – 5 août
La prochaine phase de l'IA est ici – êtes-vous prêt? Rejoignez les dirigeants de Block, GSK et SAP pour un aperçu exclusif de la façon dont les agents autonomes remodèlent les workflows d'entreprise – de la prise de décision en temps réel à l'automatisation de bout en bout.
Sécurisez votre place maintenant – l'espace est limité:
L'avantage pratique devient évident lorsque vous construisez quelque chose comme un outil d'analyse qui doit se connecter à des sources de données sur plusieurs écosystèmes. Sans MCP, vous avez besoin d'écrire des intégrations personnalisées pour chaque source de données et chaque LLM que vous souhaitez prendre en charge. Avec MCP, vous implémentez les connexions de source de données une foiset tout client AI compatible peut les utiliser.
2. Déploiement MCP local vs éloigné: quels sont les compromis réels en production?
C'est là que vous commencez vraiment à voir l'écart entre les serveurs de référence et la réalité. Le déploiement MCP local utilisant le langage de programmation STdio est mort simple à exécuter: Spawn sous-processus pour chaque serveur MCP et laissez-les parler via STDIN / STDOUT. Idéal pour un public technique, difficile pour les utilisateurs de tous les jours.
Le déploiement à distance aborde évidemment la mise à l'échelle, mais ouvre une boîte de vers autour de la complexité du transport. L'approche HTTP + SSE d'origine a été remplacée par une mise à jour HTTP diffusable en mars 2025, qui essaie de réduire la complexité en mettant tout par un point final unique / messages. Même ainsi, ce n'est pas vraiment nécessaire pour la plupart des entreprises qui sont susceptibles de construire des serveurs MCP.
Mais voici le truc: quelques mois plus tard, le soutien est au mieux inégal. Certains clients s'attendent toujours à l'ancienne configuration HTTP + SSE, tandis que d'autres travaillent avec la nouvelle approche – donc, si vous déployez aujourd'hui, vous allez probablement prendre en charge les deux. La détection du protocole et le soutien du double transport sont un must.
L'autorisation est une autre variable que vous devrez considérer avec les déploiements distants. L'intégration OAuth 2.1 nécessite la cartographie des jetons entre les fournisseurs d'identité externes et les sessions MCP. Bien que cela ajoute de la complexité, il est gérable avec une bonne planification.
3. Comment puis-je être sûr que mon serveur MCP est sécurisé?
C'est probablement le plus grand écart entre le battage médiatique MCP et ce que vous devez réellement vous attaquer pour la production. La plupart des vitrines ou des exemples que vous verrez utiliser des connexions locales sans authentification du tout, ou ils entendent la sécurité en disant «il utilise OAuth».
La spécification d'autorisation MCP fait Tirez parti d'Oauth 2.1, qui est une norme ouverte éprouvée. Mais il y aura toujours une variabilité de la mise en œuvre. Pour les déploiements de production, concentrez-vous sur les principes fondamentaux:
- Contrôle d'accès approprié basé sur la portée qui correspond à vos limites d'outils réelles
- Validation de jeton directe (locale)
- Audit des journaux et surveillance de l'utilisation des outils
Cependant, la plus grande considération de sécurité avec MCP est autour de l'exécution des outils lui-même. De nombreux outils ont besoin (ou pense Ils ont besoin) d'autorisations générales pour être utiles, ce qui signifie que la conception de la portée de balayage (comme une couverture «lire» ou «écrire») est inévitable. Même sans approche lourde, votre serveur MCP peut accéder aux données sensibles ou effectuer des opérations privilégiées – donc, en doute, s'en tenir aux meilleures pratiques recommandées dans le Dernière spécification MCP Auth Draft.
4. MCP vaut-il la peine d'investir des ressources et du temps, et sera-t-il à long terme?
Cela arrive au cœur de toute décision d'adoption: pourquoi devrais-je me soucier d'un protocole de saveur du quartier lorsque tout l'IA se déplace si vite? Quelle garantie avez-vous que MCP sera un choix solide (ou même autour) dans un an, voire six mois?
Eh bien, regardez l'adoption de MCP par les principaux acteurs: Google le prend en charge avec son protocole Agent2Agent, Microsoft a intégré MCP avec Copilot Studio et ajoute même intégré Caractéristiques MCP pour Windows 11, et CloudFlare est plus qu'heureux de vous aider à tirer votre premier Serveur MCP sur leur plate-forme. De même, la croissance de l'écosystème est encourageante, avec des centaines de serveurs MCP construits par la communauté et des intégrations officielles de plateformes bien connues.
En bref, la courbe d'apprentissage n'est pas terrible, et le fardeau de mise en œuvre est gérable pour la plupart des équipes ou des développeurs solo. Il fait ce qu'il dit sur l'étain. Alors, pourquoi serais-je prudent d'acheter le battage médiatique?
MCP est fondamentalement conçu pour les systèmes AI générique actuelle, ce qui signifie qu'il suppose que vous avez un humain supervisant une interaction à agent unique. Les tâches multi-agents et autonomes sont deux domaines que MCP ne s'adresse pas vraiment; En toute justice, il n'en a pas vraiment besoin. Mais si vous cherchez une approche à feuilles persistantes mais toujours en quelque sorte, MCP n'est-ce pas. C'est normaliser quelque chose qui a désespérément besoin de cohérence, et non de pionnier dans un territoire inexploré.
5. Sommes-nous sur le point d'assister aux «guerres du protocole d'IA»?
Les signes pointent vers une certaine tension sur la ligne pour les protocoles d'IA. Bien que MCP ait creusé un public bien rangé en étant tôt, il y a beaucoup de preuves, il ne sera pas le seul plus longtemps.
Prenez Google Agent2agent (A2A) lancement du protocole avec plus de 50 partenaires de l'industrie. C'est complémentaire de MCP, mais le moment – quelques semaines seulement après l'adoption publique d'Openai, ne se sent pas coïncidente. Google cuisinait-il un concurrent MCP lorsqu'ils ont vu le plus grand nom de LLMS l'adopter? Peut-être qu'un pivot était le bon coup. Mais ce n'est guère de la spéculation de penser que, avec des fonctionnalités comme Échantillonnage multi-llm Bientôt sorti pour MCP, A2A et MCP pourraient devenir des concurrents.
Ensuite, il y a le sentiment des sceptiques d'aujourd'hui sur le fait que MCP soit un «wrapper» plutôt qu'un véritable bond en avant pour la communication API-TO-LLM. Il s'agit d'une autre variable qui ne deviendra plus apparente que les applications orientées consommateurs se déplacent des interactions à agent unique / à usage unique et dans le domaine des tâches multi-outils multi-utilisateurs et multi-agents. Ce que MCP et A2A ne s'adresse pas deviendront un champ de bataille pour une autre race de protocole.
Pour les équipes qui apportent des projets alimentés par l'IA aujourd'hui, le jeu intelligent est probablement des protocoles de couverture. Implémentez ce qui fonctionne maintenant lors de la conception de la flexibilité. Si l'IA fait un saut générationnel et laisse MCP derrière lui, votre travail ne souffrera pas. L'investissement dans l'intégration de l'outil standardisé sera absolument payant immédiatement, mais gardez votre architecture adaptable à tout ce qui vient ensuite.
En fin de compte, la communauté du développement décidera si MCP reste pertinent. Ce sont des projets MCP en production, et non sur l'élégance des spécifications ou le buzz du marché, qui déterminera si MCP (ou autre chose) reste au top pour le prochain cycle de battage médiatique d'IA. Et franchement, c'est probablement comme ça.
Meir Wahnon est co-fondateur à Décrocher.
Source link