Sponsored by Deepsite.site

Documentación del TFG: Interconexión entre Espacios de Datos e Inteligencia Artificial Generativa

Created By
jaimealruiz8 months ago
Diseño e Implementación de interconexión entre LLM y Espacios de Datos mediante Model Context Protocol (MCP)
Content

Documentación del TFG: Interconexión entre Espacios de Datos e Inteligencia Artificial Generativa

Fecha: 11/04/2025
Autor: Jaime Alonso Ruiz Tutor: Joaquín Salvachúa Título del TFG: Diseño e implementación de interconexión entre espacios de datos e inteligencia artificial generativa


Propósito del proyecto

El objetivo principal de este Trabajo de Fin de Grado es diseñar e implementar una arquitectura funcional y escalable que permita a un sistema multiagente (LLMs) interactuar entre sí mediante un protocolo estandarizado basado en el Google A2A (Agent to Agent), y con un espacio de datos utilizando el Model Context Protocol (MCP).
Los agentes no deben interactuar directamente entre sí ni acceder directamente a la base de datos, sino que todas las operaciones deben realizarse exclusivamente a través del Broker A2A-MCP, que actúa como Hub intermediario, seguro, modular y extensible.


Infraestructura actual

Se ha desplegado una infraestructura de contenedores basada en Docker Compose que incluye:

o Un servidor MCP que actúa como broker de mensajes A2A.

o Un agente LLM que genera consultas SQL a partir de preguntas en lenguaje natural.

o Un agente de ventas que ejecuta las consultas SQL sobre una base de datos en formato Iceberg y responde con los resultados.

• Cada componente ha sido diseñado de forma modular e independiente, con interfaces REST expuestas mediante FastAPI.

• Se ha utilizado DuckDB como motor de consultas para el backend en esta primera fase local.

  • Espacio de datos
    • Implementado localmente usando DuckDB (lake.duckdb).
    • Contiene una tabla iceberg_space.ventas con las siguientes columnas:
      • fecha (DATE)
      • producto (TEXT)
      • cantidad (INTEGER)
      • precio (DOUBLE)
    • Los datos se cargan desde load_data.py.

Protocolo de comunicación A2A

  • Se ha definido un protocolo de mensajes A2A basado en objetos JSON que siguen un esquema tipo:
{

  "message_id": "uuid",

    "sender": "agent_id",

    "recipient": "agent_id",

    "timestamp": "ISO8601",

    "type": "query" | "response",

    "body": {...}

  }
  • El MCP almacena un registro en memoria de los agentes registrados, incluyendo su agent_id y su URL de callback.
  • Los agentes se registran al inicio mediante un mensaje POST /agent/register. El agent_id puede ser fijo o generado aleatoriamente por el MCP si no se especifica.
  • El agente LLM actúa como iniciador de las consultas, enviando mensajes query al agente de ventas.
  • El agente de ventas responde con un mensaje response, incluyendo el resultado y un correlation_id para que el LLM pueda completar la consulta.

Agente LLM

  • Se ha integrado el modelo de lenguaje TinyLlama (TinyLlama-1.1B-Chat-v1.0) de forma local usando transformers, para evitar dependencias externas.
  • El agente LLM genera prompts contextualizados con metadatos obtenidos del MCP (productos y fechas disponibles), mediante el Modern Context Protocol (MCP), para generar SQL válido.
  • También es responsable de convertir los resultados en lenguaje natural mediante un segundo prompt.
  • El agente soporta un endpoint /query que acepta preguntas en lenguaje natural y coordina todo el ciclo de consulta y respuesta

Identificadores fijos y configuración

  • Se han fijado los agent_id de ambos agentes mediante un fichero .env, y se ha corregido la configuración para que el contenedor ventas-agent lo importe correctamente.
  • Se han introducido mejoras de robustez como:
  • Esperas iniciales para resolución DNS y arranque del MCP.
  • Retransmisiones exponenciales en caso de fallo de registro.
  • Registro de logs detallado en cada componente.

Cliente de consola

Se ha creado un script CLI que permite interactuar con el sistema desde la terminal, enviando preguntas al LLM-Agent y mostrando en consola el SQL generado y la respuesta.


Principios y decisiones clave

  • Separación estricta entre procesamiento semántico (LLM) y acceso a datos (MCP).
  • Cumplimiento del diseño propuesto por MCP: los LLMs acceden a los datos solo a través de herramientas ("tools").
  • Uso de prompts enriquecidos con información contextual previa obtenida del MCP.
  • Cumplimiento de las especificaciones publicadas del Google A2A.
  • Arquitectura modular, extensible y trazable mediante logs.

Plan de Trabajo Futuro

  • Verificación funcional completa: Realizar pruebas de extremo a extremo entre el cliente CLI, el LLM-Agent, el broker MCP y el agente de ventas.

  • Extensión al protocolo Google A2A: Adoptar elementos clave de la especificación Google A2A, incluyendo:

    • Identidad estructurada y metadatos del agente (Agent Card).
    • Soporte opcional de JSON-RPC 2.0.
    • Canal de eventos unidireccional (eventos push) con Server-Sent Events (SSE).
  • Persistencia y auditoría:

    • Extensión del MCP para registrar mensajes y agentes en una base de datos (SQLite o PostgreSQL)..
    • Incorporación de IDs de conversación para trazabilidad.
  • Documentación y despliegue local reproducible:

    • Redacción de README técnico con instrucciones paso a paso.
    • Scripts automáticos de puesta en marcha y pruebas.

Conclusión provisional

Hasta la fecha, se ha implementado de forma satisfactoria una arquitectura funcional basada en agentes cooperantes que utilizan lenguaje natural y SQL para consultar datos sobre un formato Iceberg. Se ha verificado la comunicación mediante un broker A2A minimalista, y el sistema ha demostrado ser modular, escalable y ampliable hacia futuros estándares de interoperabilidad como Google A2A.

Recommend Servers
TraeBuild with Free GPT-4.1 & Claude 3.7. Fully MCP-Ready.
ChatWiseThe second fastest AI chatbot™
Context7Context7 MCP Server -- Up-to-date code documentation for LLMs and AI code editors
EdgeOne Pages MCPAn MCP service designed for deploying HTML content to EdgeOne Pages and obtaining an accessible public URL.
Playwright McpPlaywright MCP server
WindsurfThe new purpose-built IDE to harness magic
MiniMax MCPOfficial MiniMax Model Context Protocol (MCP) server that enables interaction with powerful Text to Speech, image generation and video generation APIs.
TimeA Model Context Protocol server that provides time and timezone conversion capabilities. This server enables LLMs to get current time information and perform timezone conversions using IANA timezone names, with automatic system timezone detection.
Tavily Mcp
BlenderBlenderMCP connects Blender to Claude AI through the Model Context Protocol (MCP), allowing Claude to directly interact with and control Blender. This integration enables prompt assisted 3D modeling, scene creation, and manipulation.
Baidu Map百度地图核心API现已全面兼容MCP协议,是国内首家兼容MCP协议的地图服务商。
Howtocook Mcp基于Anduin2017 / HowToCook (程序员在家做饭指南)的mcp server,帮你推荐菜谱、规划膳食,解决“今天吃什么“的世纪难题; Based on Anduin2017/HowToCook (Programmer's Guide to Cooking at Home), MCP Server helps you recommend recipes, plan meals, and solve the century old problem of "what to eat today"
AiimagemultistyleA Model Context Protocol (MCP) server for image generation and manipulation using fal.ai's Stable Diffusion model.
Serper MCP ServerA Serper MCP Server
Jina AI MCP ToolsA Model Context Protocol (MCP) server that integrates with Jina AI Search Foundation APIs.
Amap Maps高德地图官方 MCP Server
Visual Studio Code - Open Source ("Code - OSS")Visual Studio Code
CursorThe AI Code Editor
DeepChatYour AI Partner on Desktop
MCP AdvisorMCP Advisor & Installation - Use the right MCP server for your needs
Zhipu Web SearchZhipu Web Search MCP Server is a search engine specifically designed for large models. It integrates four search engines, allowing users to flexibly compare and switch between them. Building upon the web crawling and ranking capabilities of traditional search engines, it enhances intent recognition capabilities, returning results more suitable for large model processing (such as webpage titles, URLs, summaries, site names, site icons, etc.). This helps AI applications achieve "dynamic knowledge acquisition" and "precise scenario adaptation" capabilities.