发布于: 2025-2-26最后更新: 2025-2-26字数 1241阅读时长 4 分钟

type
status
date
slug
summary
tags
category
icon
password
😀
最近在看AI相关的时候,一个词开始被大家经常提起,就是MCP(Model Context Protocol),所以下午准备花一点点时间来看一下
 
MCP 是一种开放协议,它标准化了应用程序如何为 LLMs.将 MCP 想象成 AI 应用的 USB-C 端口。正如 USB-C 提供了一种将设备连接到各种外围设备和配件的标准化方式一样,MCP 也提供了一种将 AI 模型连接到不同数据源和工具的标准化方式。
 

为什么选择MCP

  • 基础架构中保护数据安全
  • 在模型(LLM)供应商中方便切换
  • 可以把LLM接入越来越大的项目中
 

MCP 的主要作用

  1. 更好的记忆管理 - 帮助AI模型记住对话的重要部分,而不是被不相关信息填满有限的记忆空间
  1. 信息组织 - 将对话内容组织成结构化的格式,让AI能更清晰地理解"谁说了什么"和"什么信息最重要"
  1. 性能提升 - 通过减少无用信息,模型可以更专注于重要内容,提高回答质量并降低成本

通俗比喻

想象MCP就像是AI的"个人助理":
  • 没有MCP时,AI像是一个记录员,把所有听到的话都记下来,导致记忆很快就被填满
  • 有了MCP后,AI像是有了一位助理,这位助理会帮忙整理信息,突出重点,过滤噪音,让AI能更好地理解和回应用户
MCP通过提供一种标准化的方式来处理、存储和管理对话的上下文信息,让不同的AI模型和应用能够更一致、更高效地处理用户与AI之间的交互。
 

MCP作为记忆辅助工具

  1. 优化有限的上下文窗口:大型语言模型都有一个上下文窗口限制(比如8K、32K或128K个标记),MCP帮助在这个有限空间内更高效地存储重要信息
  1. 智能记忆管理:不是简单地记住更多内容,而是更聪明地决定"记住什么"和"忘记什么"
  1. 结构化记忆:将对话内容组织成更有条理的格式,让AI能更清晰地回忆和利用之前的交流

实际价值

  • 解决长对话问题:在长时间对话中,普通模型容易"忘记"之前提到的重要信息,MCP帮助保留关键内容
  • 降低成本:通过减少处理不必要的信息,可以降低API调用成本
  • 提高一致性:让AI能够更连贯地跟进之前的讨论,减少"健忘"现象

MCP的实现机制

  1. 消息结构化:MCP使用特定的JSON格式来组织对话历史,每条消息都包含元数据(如时间戳、角色、重要性等)
  1. 智能消息筛选
      • 不是简单地保留最近N条消息
      • 而是根据消息的重要性评分决定保留哪些消息
      • 可能会删除低价值的消息来节省上下文空间
  1. 分层记忆管理
      • 短期记忆:当前对话的重要部分
      • 长期记忆:关键信息的摘要或重要的历史片段
      • 工作记忆:当前需要处理的信息
  1. 摘要生成(这是您问到的部分):
      • MCP确实会在特定时刻生成摘要,但不一定是每次请求都做
      • 通常在对话达到一定长度或复杂度时触发
      • 摘要会被存储并成为上下文的一部分,替代原始的详细对话
  1. 上下文压缩:使用各种技术减少令牌使用量,同时保留关键信息
 
 

重要性评分的实现

  1. AI参与评分
      • MCP框架中,通常会使用AI模型本身或辅助模型来评估消息的重要性
      • 这可能涉及额外的API调用,让AI为每条消息打分
  1. 评分的时机
      • 可能在用户发送新消息后立即评估
      • 或在对话达到特定长度时批量评估历史消息
  1. 评分标准包括:
      • 消息的信息密度
      • 与当前问题的相关性
      • 包含的指令或关键信息
      • 时间相关性(较新的可能更重要)
  1. 混合方法
      • 高级MCP实现会结合规则系统和AI评估
      • 例如,用户的问题自动获得高优先级
      • 但具体内容的重要性需要AI理解

Loading...
Vite框架知识点整理

Vite框架知识点整理

因为自己学习的项目使用的是vite,并且最近面试题询问到的vite优化方面的也比较多,所以,今天从头学习一下vite,并整理一下我觉得比较重要的知识


如何在本地部署DeepSeek

📖如何在本地部署DeepSeek

详细介绍如何在Windows电脑上部署deepseek


公告
最近在看AI-sdk和vite相关内容,后续会继续整理