【AI大模型】AI智能体直接操作数据库:MCP客户端完整实现指南,让AI智能体与数据库无缝对话
本文详细介绍了如何构建完全本地化的MCP客户端,使AI智能体能直接与SQLite数据库交互。技术栈包括LlamaIndex、Ollama、LightningAI和SQLite。文章提供了从服务器搭建、模型配置到工具包装和智能体构建的完整代码实现,展示了用户查询到智能响应的工作流程。该系统完全本地化,保障数据安全,可扩展应用于数据管理、智能客服等多种场景,为AI智能体与本地数据源的集成提供了实用解决
前言
最近在做一个项目时,我需要让AI智能体能够直接与本地数据库进行交互。经过一番研究,发现Model Context Protocol(MCP)是个非常优雅的解决方案。今天就跟大家分享一下如何构建一个完全本地化的MCP客户端,让AI智能体能够智能地操作SQLite数据库。

一、什么是MCP?为什么选择它?
MCP(Model Context Protocol)是一个标准化协议,专门用于AI应用程序与外部工具和数据源的连接。想象一下,如果AI智能体是一个万能助手,那么MCP就是它的"工具箱接口",让它能够标准化地使用各种外部工具。
二、技术栈选择
经过多次尝试,我选择了这样的技术栈:
- LlamaIndex:构建MCP智能体的核心框架
- Ollama:本地运行Deepseek-R1模型
- LightningAI:开发和托管环境
- SQLite:作为演示的数据存储
三、整体工作流程

整个系统的运行逻辑其实很简单:
- 用户提交查询
- 智能体连接MCP服务器,发现可用工具
- 根据查询内容,智能体选择合适的工具
- 获取上下文信息并返回智能响应
四、代码实现详解
第一步:构建SQLite MCP服务器
首先,我们需要一个简单的MCP服务器作为演示。这个服务器提供两个核心功能:
import sqlite3
import json
from typing import Any, Dict, List
import asyncio
class SQLiteMCPServer:
def __init__(self, db_path: str = "demo.db"):
self.db_path = db_path
self.init_database()
def init_database(self):
"""初始化数据库表"""
conn = sqlite3.connect(self.db_path)
cursor = conn.cursor()
cursor.execute('''
CREATE TABLE IF NOT EXISTS players (
id INTEGER PRIMARY KEY AUTOINCREMENT,
name TEXT NOT NULL,
sport TEXT NOT NULL,
achievements TEXT
)
''')
conn.commit()
conn.close()
def add_data(self, name: str, sport: str, achievements: str = "") -> Dict[str, Any]:
"""添加数据到数据库"""
try:
conn = sqlite3.connect(self.db_path)
cursor = conn.cursor()
cursor.execute(
"INSERT INTO players (name, sport, achievements) VALUES (?, ?, ?)",
(name, sport, achievements)
)
conn.commit()
row_id = cursor.lastrowid
conn.close()
return {"success": True, "id": row_id, "message": f"成功添加 {name}"}
except Exception as e:
return {"success": False, "error": str(e)}
def get_data(self, sport: str = None) -> Dict[str, Any]:
"""从数据库获取数据"""
try:
conn = sqlite3.connect(self.db_path)
cursor = conn.cursor()
if sport:
cursor.execute("SELECT * FROM players WHERE sport = ?", (sport,))
else:
cursor.execute("SELECT * FROM players")
rows = cursor.fetchall()
columns = [description[0] for description in cursor.description]
data = []
for row in rows:
data.append(dict(zip(columns, row)))
conn.close()
return {"success": True, "data": data, "count": len(data)}
except Exception as e:
return {"success": False, "error": str(e)}
# 创建MCP服务器实例
mcp_server = SQLiteMCPServer()
第二步:设置本地大语言模型
使用Ollama在本地运行Deepseek-R1模型:
from llama_index.llms.ollama import Ollama
def setup_local_llm():
"""配置本地LLM"""
llm = Ollama(
model="deepseek-r1:latest",
base_url="http://localhost:11434",
temperature=0.1,
request_timeout=120.0
)
return llm
# 初始化LLM
local_llm = setup_local_llm()
第三步:定义智能体系统提示词
这一步很关键,好的提示词能让智能体更好地理解任务:
SYSTEM_PROMPT = """
你是一个智能数据库助手。你拥有以下能力:
1. 向数据库添加运动员信息
2. 从数据库查询运动员数据
重要规则:
- 在回答用户问题之前,先使用相应的工具获取或操作数据
- 如果用户想要添加数据,使用 add_data 工具
- 如果用户想要查看数据,使用 get_data 工具
- 始终以友好、专业的语调回应
- 将结果以清晰、易读的格式呈现给用户
请根据用户的请求,选择合适的工具并提供有用的响应。
"""
第四步:创建MCP工具包装器
将MCP服务器的功能包装成LlamaIndex可以使用的工具:
from llama_index.core.tools import FunctionTool
from typing import Optional
def create_mcp_tools(server: SQLiteMCPServer) -> List[FunctionTool]:
"""创建MCP工具列表"""
def add_player_data(name: str, sport: str, achievements: str = "") -> str:
"""
添加运动员数据到数据库
Args:
name (str): 运动员姓名
sport (str): 运动项目
achievements (str): 主要成就,可选
Returns:
str: 操作结果
"""
result = server.add_data(name, sport, achievements)
if result["success"]:
return f"✅ {result['message']}"
else:
return f"❌ 添加失败: {result['error']}"
def get_player_data(sport: Optional[str] = None) -> str:
"""
从数据库获取运动员数据
Args:
sport (str, optional): 运动项目筛选,不提供则获取所有数据
Returns:
str: 查询结果
"""
result = server.get_data(sport)
if result["success"]:
if result["count"] == 0:
return "📭 数据库中暂无符合条件的运动员数据"
data_str = f"📊 找到 {result['count']} 条记录:\n\n"
for player in result["data"]:
data_str += f"🏆 {player['name']}\n"
data_str += f" 项目: {player['sport']}\n"
if player['achievements']:
data_str += f" 成就: {player['achievements']}\n"
data_str += "\n"
return data_str
else:
return f"❌ 查询失败: {result['error']}"
# 创建工具列表
tools = [
FunctionTool.from_defaults(
fn=add_player_data,
name="add_data",
description="向数据库添加运动员信息"
),
FunctionTool.from_defaults(
fn=get_player_data,
name="get_data",
description="从数据库查询运动员信息"
)
]
return tools
第五步:构建MCP智能体
现在我们把所有组件整合起来:
from llama_index.core.agent import FunctionCallingAgent
from llama_index.core.memory import ChatMemoryBuffer
class MCPAgent:
def __init__(self, llm, tools, system_prompt: str):
self.llm = llm
self.tools = tools
self.memory = ChatMemoryBuffer.from_defaults(token_limit=4000)
self.agent = FunctionCallingAgent.from_tools(
tools=tools,
llm=llm,
system_prompt=system_prompt,
memory=self.memory,
verbose=True
)
def chat(self, message: str) -> str:
"""与智能体对话"""
try:
response = self.agent.chat(message)
return str(response)
except Exception as e:
return f"抱歉,处理您的请求时出现错误:{str(e)}"
def reset_memory(self):
"""重置对话记忆"""
self.memory.reset()
def create_mcp_agent(mcp_server: SQLiteMCPServer) -> MCPAgent:
"""创建MCP智能体"""
llm = setup_local_llm()
tools = create_mcp_tools(mcp_server)
agent = MCPAgent(
llm=llm,
tools=tools,
system_prompt=SYSTEM_PROMPT
)
return agent
第六步:完整的运行示例
让我们把所有代码整合起来,创建一个完整的演示:
def main():
"""主函数:演示MCP客户端的完整功能"""
print("🚀 正在初始化本地MCP客户端...")
# 创建MCP服务器
mcp_server = SQLiteMCPServer()
print("✅ SQLite MCP服务器已启动")
# 创建智能体
agent = create_mcp_agent(mcp_server)
print("✅ MCP智能体已就绪")
print("\n" + "="*50)
print("🤖 MCP智能体已启动!您可以尝试以下操作:")
print("- 添加运动员信息:'添加拉斐尔·纳达尔,网球运动员,22个大满贯冠军'")
print("- 查看所有数据:'显示所有运动员信息'")
print("- 输入 'quit' 退出")
print("="*50)
# 交互循环
while True:
try:
user_input = input("\n👤 您: ").strip()
if user_input.lower() in ['quit', 'exit', '退出']:
print("👋 再见!")
break
if not user_input:
continue
print("🤖 智能体思考中...")
response = agent.chat(user_input)
print(f"🤖 智能体: {response}")
except KeyboardInterrupt:
print("\n👋 程序已退出")
break
except Exception as e:
print(f"❌ 发生错误: {str(e)}")
if __name__ == "__main__":
main()
五、运行效果展示
当你运行这个程序时,你会看到类似这样的交互:
👤 您: 添加拉斐尔·纳达尔,网球运动员,22个大满贯冠军
🤖 智能体: ✅ 成功添加 拉斐尔·纳达尔
👤 您: 显示所有运动员信息
🤖 智能体: 📊 找到 1 条记录:
🏆 拉斐尔·纳达尔
项目: 网球
成就: 22个大满贯冠军
六、实际应用场景
这个MCP客户端的应用场景非常广泛:
- 数据管理助手:让AI帮助管理各种结构化数据
- 智能客服系统:结合知识库进行智能问答
- 业务流程自动化:让AI执行复杂的数据操作任务
- 开发工具集成:在开发环境中提供智能化的数据操作
七、扩展可能性
基于这个基础架构,你可以轻松扩展更多功能:
- 连接更多类型的数据库(MySQL、PostgreSQL等)
- 集成文件系统操作
- 添加API调用功能
- 实现复杂的数据分析工具
八、总结
通过这个完全本地化的MCP客户端,我们实现了AI智能体与数据库的无缝对话。整个系统不依赖任何外部API,保证了数据的安全性和隐私性。
最重要的是,这种架构非常灵活,你可以根据自己的需求轻松修改和扩展。无论是简单的数据管理,还是复杂的业务流程自动化,都能够很好地适应。
最后
为什么要学AI大模型
当下,⼈⼯智能市场迎来了爆发期,并逐渐进⼊以⼈⼯通⽤智能(AGI)为主导的新时代。企业纷纷官宣“ AI+ ”战略,为新兴技术⼈才创造丰富的就业机会,⼈才缺⼝将达 400 万!
DeepSeek问世以来,生成式AI和大模型技术爆发式增长,让很多岗位重新成了炙手可热的新星,岗位薪资远超很多后端岗位,在程序员中稳居前列。

与此同时AI与各行各业深度融合,飞速发展,成为炙手可热的新风口,企业非常需要了解AI、懂AI、会用AI的员工,纷纷开出高薪招聘AI大模型相关岗位。
最近很多程序员朋友都已经学习或者准备学习 AI 大模型,后台也经常会有小伙伴咨询学习路线和学习资料,我特别拜托北京清华大学学士和美国加州理工学院博士学位的鲁为民老师给大家这里给大家准备了一份涵盖了AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频 全系列的学习资料,这些学习资料不仅深入浅出,而且非常实用,让大家系统而高效地掌握AI大模型的各个知识点。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
AI大模型系统学习路线
在面对AI大模型开发领域的复杂与深入,精准学习显得尤为重要。一份系统的技术路线图,不仅能够帮助开发者清晰地了解从入门到精通所需掌握的知识点,还能提供一条高效、有序的学习路径。

但知道是一回事,做又是另一回事,初学者最常遇到的问题主要是理论知识缺乏、资源和工具的限制、模型理解和调试的复杂性,在这基础上,找到高质量的学习资源,不浪费时间、不走弯路,又是重中之重。
AI大模型入门到实战的视频教程+项目包
看视频学习是一种高效、直观、灵活且富有吸引力的学习方式,可以更直观地展示过程,能有效提升学习兴趣和理解力,是现在获取知识的重要途径

光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
海量AI大模型必读的经典书籍(PDF)
阅读AI大模型经典书籍可以帮助读者提高技术水平,开拓视野,掌握核心技术,提高解决问题的能力,同时也可以借鉴他人的经验。对于想要深入学习AI大模型开发的读者来说,阅读经典书籍是非常有必要的。
600+AI大模型报告(实时更新)
这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。
AI大模型面试真题+答案解析
我们学习AI大模型必然是想找到高薪的工作,下面这些面试题都是总结当前最新、最热、最高频的面试题,并且每道题都有详细的答案,面试前刷完这套面试题资料,小小offer,不在话下

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。
更多推荐
所有评论(0)