MCP

MCP 是一个拥有强大支持者的“开放标准”

如果开发一个LLM应用,你当然可以把所有Tool能力都自行开发,就像你开发一个后台服务,你可以全栈自研,不使用第三方库,不调用中台提供的服务。但是这显然不是一个好的做法,尤其是在对效率追求如此高的当下,怎么样建设相关生态方便共享和复用才是关键。比如,你需要一个Linux Command Runner工具,它可以代理大模型执行shell命令。你当然可以很简单地实现一个Tool,但是为了安全性,这个工具最好要支持配置命令黑白名单,支持配置只能操作指定目录的文件,支持自动上报执行记录等等功能…要做得Robust就不简单了。因此Tool也需要开放的生态。

不仅如此,大模型应用本身也可以整体提供给其他应用使用。比如,我开发一个 线上问题快速排查 的应用,在排查具体问题时,它可能需要去查iwiki上的文档。而我们前面的例子也说了,要做好知识问答话涉及很多RAG相关的能力建设和优化。最好的办法就是直接使用iwiki问答机器人,而不是重新造轮子。

这和我们现在的开发复用方式其实没啥两样:

  • Tool复用: 相当于我们依赖一个开源库
  • 应用级复用:相当于我们依赖一个中台服务

怎么接入一个MCP

怎么写一个MCP

MCP社区

MCP 的风险

image.png

参考文章