El Model Context Protocol (MCP), un estándar de código abierto introducido por Anthropic a finales de 2024, estandariza cómo los modelos de lenguaje grandes (LLM) se conectan a herramientas, bases de datos y fuentes de datos externas.
Esto permite que la nube o el cursor interactúen fácilmente con archivos, API y bases de datos sin la necesidad de integraciones codificadas y personalizadas.
Es por eso que a menudo se compara el MCP con un “puerto USB-C para IA”.
El artículo continúa a continuación.
Sin embargo, a diferencia del USB-C, conlleva riesgos, especialmente si el modelo realmente comprende lo que está buscando y qué representan los datos subyacentes.
Sin una planificación cuidadosa en torno a este aspecto del protocolo, los proyectos de IA pueden no cumplir con las expectativas. Consideremos por qué.
MCP proporciona una forma mucho más eficiente para que LLM interactúe con herramientas externas, API y fuentes de datos. En lugar de orquestar manualmente procesos de varios pasos (recuperar datos, formatearlos, insertarlos en solicitudes y analizar el resultado), los equipos de IA pueden exponer capacidades directamente a los modelos, lo que permite a los LLM decidir qué usar, cuándo y cómo agregar resultados.
Esto hace que la IA pase de bucles estáticos de respuesta rápida a un comportamiento más dinámico, similar al de un agente. En lugar de codificar flujos de trabajo, los equipos definen herramientas y el modelo las organiza (activando flujos de trabajo como consultar bases de datos, enviar correos electrónicos o actualizar sistemas), eligiendo las herramientas adecuadas y secuenciandolas según la tarea.
Tanto en la teoría como en la práctica, este enfoque reduce los gastos generales de ingeniería y aumenta la flexibilidad. Los proveedores de modelos, marcos y plataformas admiten cada vez más interacciones de estilo MCP, y muchas herramientas de desarrollo ahora asumen una orquestación basada en herramientas.
Sin embargo, MCP introduce nuevos desafíos, particularmente la sobrecarga de herramientas. La tentación es darle al modelo acceso a tantas herramientas como sea posible, asumir que más potencia debería significar mejores resultados, pero no siempre es así.
Como un LLM que ofrece demasiadas opciones puede aumentar el riesgo de alucinaciones, la misma dinámica aparece en la ubicación. A medida que aumenta el número de herramientas disponibles, la capacidad del modelo para elegir de manera confiable la correcta disminuye, lo que lo tienta a elegir o hacer un mal uso de la incorrecta, lo que produce resultados indeseables.
En este entorno, en lugar de alucinar texto, el modelo ahora alucina verbos.
Puedes tener demasiado de algo bueno
Entonces, ¿cuál es el camino a seguir? Nuestra experiencia muestra que el progreso proviene de un conjunto mínimo y de alcance estricto de herramientas adecuadas para tareas específicas. Los flujos de trabajo complejos también deben dividirse en pasos más pequeños, cada uno con una capacidad claramente definida.
El siguiente es el contexto. Un LLM sabe cómo utilizar una herramienta, pero no qué hacer con ella. Por ejemplo, un modelo puede generar consultas sintácticamente correctas, pero sin comprender el esquema subyacente o las relaciones de datos, esas consultas pueden carecer de sentido o estar incompletas.
Esto equivale a darle a alguien acceso a un enorme sistema de archivos sin índice. Sin el conocimiento estructural necesario para interpretar correctamente los datos o decidir qué herramienta es apropiada, incluso los sistemas MCP bien diseñados pueden comportarse de manera impredecible.
Deliberadamente no hablo de cuestiones de seguridad, pero están lejos de ser triviales: piense en el acceso no autorizado a datos, la inyección rápida que desencadena acciones no deseadas, etc. El punto es saber qué herramientas utilizó su aplicación de IA, por qué las eligió y qué acciones se realizaron como resultado.
Una respuesta a las deficiencias de MCP: GraphRAG
Está claro que, por muy útil que sea, MCP no es una solución completa. Sirve como una capa activa, pero no constituye conocimiento, no proporciona un contexto confiable ni guía la toma de decisiones. Las elecciones arquitectónicas son importantes: mejorar la calidad del contexto y la estructura proporcionada en el modelo marca una diferencia significativa.
Aquí es donde ayudan enfoques como la generación aumentada de recuperación (RAG); Y cada vez más, los enfoques basados en gráficos están ganando atención, dando lugar a GraphRug, propuesto por primera vez por Microsoft.
Los sistemas RAG tradicionales utilizan la búsqueda vectorial para recuperar información relevante. Este enfoque ayuda a reducir las alucinaciones, pero puede tener problemas con las relaciones complejas o la estructura subyacente de la información. GraphRAG, sin embargo, amplía este concepto al introducir una capa de gráfico de conocimiento, que codifica entidades, relaciones y reglas en una forma estructurada.
Esto le da al modelo una comprensión clara de cómo se conectan los datos y qué representan. En el contexto de MCP, esto mejora la selección de herramientas. Cuando el LLM tiene acceso a conocimiento estructurado, puede determinar qué herramientas son relevantes para una tarea determinada, y esto permite una ejecución más controlada, guiando el modelo hacia acciones válidas y lejos de las riesgosas o irracionales.
Por ejemplo, un gráfico puede codificar restricciones como permisos, dependencias o lógica empresarial. Proporciona una forma de barandilla que complementa la capa de acción del MCP. El resultado es un sistema más equilibrado: el MCP gestiona la interacción y la ejecución, el RAG proporciona un contexto relevante y el gráfico de conocimiento agrega claridad, restricciones y soporte lógico.
Esta combinación ayuda a reducir las alucinaciones y el abuso, dos riesgos importantes de los sistemas impulsados por MCP. Al integrar GraphRAG con flujos de trabajo basados en MCP, los desarrolladores pueden crear sistemas donde los modelos no solo pueden actuar sino que también están mejor informados sobre cuándo y cómo actuar, acercándonos a una IA práctica que sea robusta y confiable.
Hemos enumerado más de 70 mejores herramientas de inteligencia artificial..
Este artículo fue producido en parte Perspectiva profesional de TechRadarNuestro canal para mostrar las mejores y más brillantes mentes de la industria tecnológica actual.
Las opiniones expresadas aquí son las del autor y no necesariamente las de TechRadarPro o Future plc. Si está interesado en contribuir, obtenga más información aquí: