<?xml version="1.0" encoding="UTF-8" ?>
<rss version="2.0">
    <channel>
      <title>梁非凡&#039;s blog</title>
      <link>https://chengliang.vercel.app</link>
      <description>最近的10条笔记 on 梁非凡&#039;s blog</description>
      <generator>Quartz -- quartz.jzhao.xyz</generator>
      <item>
    <title>LLM</title>
    <link>https://chengliang.vercel.app/%E6%8A%80%E6%9C%AF/Prompt-Engineering/%E6%9C%AF%E8%AF%AD%E5%BA%93/LLM</link>
    <guid>https://chengliang.vercel.app/%E6%8A%80%E6%9C%AF/Prompt-Engineering/%E6%9C%AF%E8%AF%AD%E5%BA%93/LLM</guid>
    <description><![CDATA[ LLM LLM（Large Language Model，大语言模型）：以海量文本训练出来、能够进行自然语言理解与生成的模型（对话、写作、翻译、推理、代码生成等）。 缩写 / 全称 / 同义词 缩写：LLM 全称：Large Language Model 同义词/近义：大模型（语境相关，可能也包含多模态模型） 相关术语 System Prompt Structured Output Function Calling MCP 引用 / 出处（Obsidian 文档引用） 结构化输出（Structured Output）笔记 结构化输出是把 LLM 的“自由作文”变成“可解析、可校验、可落地”的数... ]]></description>
    <pubDate>Fri, 24 Apr 2026 02:47:33 GMT</pubDate>
  </item><item>
    <title>MCP</title>
    <link>https://chengliang.vercel.app/%E6%8A%80%E6%9C%AF/Prompt-Engineering/%E6%9C%AF%E8%AF%AD%E5%BA%93/MCP</link>
    <guid>https://chengliang.vercel.app/%E6%8A%80%E6%9C%AF/Prompt-Engineering/%E6%9C%AF%E8%AF%AD%E5%BA%93/MCP</guid>
    <description><![CDATA[ MCP MCP（Model Context Protocol，模型上下文协议）：一套让大模型/Agent 以“统一接口”连接外部工具与数据源的协议规范；你可以把它理解为 AI 世界的“USB-C 接口”。 缩写 / 全称 / 同义词 缩写：MCP 全称：Model Context Protocol 相关说法：工具接入协议、Agent 工具总线（非官方） 定义（更具体一点） MCP 把“工具/数据源”封装成标准化的 MCP Server，客户端（如 Cursor、Claude Desktop、Agent Harness）用一致的方式发现能力、传参调用、读取资源，从而避免为每个模型/每个数据源重复... ]]></description>
    <pubDate>Fri, 24 Apr 2026 02:47:33 GMT</pubDate>
  </item><item>
    <title>术语库索引</title>
    <link>https://chengliang.vercel.app/%E6%8A%80%E6%9C%AF/Prompt-Engineering/%E6%9C%AF%E8%AF%AD%E5%BA%93/%E6%9C%AF%E8%AF%AD%E5%BA%93%E7%B4%A2%E5%BC%95</link>
    <guid>https://chengliang.vercel.app/%E6%8A%80%E6%9C%AF/Prompt-Engineering/%E6%9C%AF%E8%AF%AD%E5%BA%93/%E6%9C%AF%E8%AF%AD%E5%BA%93%E7%B4%A2%E5%BC%95</guid>
    <description><![CDATA[ 术语库索引（Obsidian Hover 版） 使用方式：在笔记里把术语写成内部链接（例如 [[TTFT]]、[[RAG]]），开启 Obsidian 的 Page preview（页面预览） 后，鼠标悬浮在链接上即可看到解释。 常用术语 TTFT：Time To First Token，首 Token 延迟 RAG：Retrieval-Augmented Generation，检索增强生成 ToT：Tree of Thoughts，思维树 SSE：Server-Sent Events，服务端推送（常用于流式输出） LLM：Large Language Model，大语言模型 MCP：Mode... ]]></description>
    <pubDate>Fri, 24 Apr 2026 02:47:33 GMT</pubDate>
  </item><item>
    <title>Chain of Thought（CoT）笔记</title>
    <link>https://chengliang.vercel.app/%E6%8A%80%E6%9C%AF/Prompt-Engineering/Chain-of-Thought%EF%BC%88CoT%EF%BC%89%E7%AC%94%E8%AE%B0</link>
    <guid>https://chengliang.vercel.app/%E6%8A%80%E6%9C%AF/Prompt-Engineering/Chain-of-Thought%EF%BC%88CoT%EF%BC%89%E7%AC%94%E8%AE%B0</guid>
    <description><![CDATA[  一句话看懂：CoT 的关键不是“让模型更聪明”，而是让它把推理过程写出来——用可见的中间步骤降低复杂任务的跳步与出错率。 一、 什么是 CoT？（核心概念） 在过去，我们向大模型提问通常是“直球对决”（Standard Prompting）：输入问题 → 直接输出答案。这种方式在处理简单问答时很高效，但在面对复杂的数学、逻辑推理或多步骤的代码架构设计时，模型很容易出现“幻觉”或逻辑断层。 Chain of Thought (思维链) 的核心思想很简单：不要让模型直接给答案，而是强制它把得出答案的“中间推理过程”一步步写出来。 这就好比在数学考试中，老师不仅要求你写出最终结果，还要求你写出完整... ]]></description>
    <pubDate>Thu, 23 Apr 2026 07:44:22 GMT</pubDate>
  </item><item>
    <title>Context Engineering（上下文工程）笔记</title>
    <link>https://chengliang.vercel.app/%E6%8A%80%E6%9C%AF/Prompt-Engineering/Context-Engineering%EF%BC%88%E4%B8%8A%E4%B8%8B%E6%96%87%E5%B7%A5%E7%A8%8B%EF%BC%89%E7%AC%94%E8%AE%B0</link>
    <guid>https://chengliang.vercel.app/%E6%8A%80%E6%9C%AF/Prompt-Engineering/Context-Engineering%EF%BC%88%E4%B8%8A%E4%B8%8B%E6%96%87%E5%B7%A5%E7%A8%8B%EF%BC%89%E7%AC%94%E8%AE%B0</guid>
    <description><![CDATA[  一句话看懂：上下文工程就是在 token 预算内，把“当前任务最相关的信息”精准喂给模型——它决定了系统的智商下限与成本上限。 1. ]]></description>
    <pubDate>Thu, 23 Apr 2026 07:44:22 GMT</pubDate>
  </item><item>
    <title>Few-Shot Prompting（少样本提示）笔记</title>
    <link>https://chengliang.vercel.app/%E6%8A%80%E6%9C%AF/Prompt-Engineering/Few-Shot-Prompting%EF%BC%88%E5%B0%91%E6%A0%B7%E6%9C%AC%E6%8F%90%E7%A4%BA%EF%BC%89%E7%AC%94%E8%AE%B0</link>
    <guid>https://chengliang.vercel.app/%E6%8A%80%E6%9C%AF/Prompt-Engineering/Few-Shot-Prompting%EF%BC%88%E5%B0%91%E6%A0%B7%E6%9C%AC%E6%8F%90%E7%A4%BA%EF%BC%89%E7%AC%94%E8%AE%B0</guid>
    <description><![CDATA[  一句话看懂：Few-Shot 就是用 1~N 个“输入→输出”范例，让模型在当下对话里学会你想要的模式（尤其适合格式严格、映射规则隐含的任务）。 一、 核心概念：什么是 Few-Shot？ 大语言模型（LLM）在预训练时看过了海量数据，具备强大的 Zero-Shot（零样本）泛化能力。但在处理格式要求苛刻、边界模糊的分类、或特定业务领域的私有术语时，Zero-Shot 往往会“翻车”。 Few-Shot (少样本) 的本质，是利用大模型的“模式匹配（Pattern Recognition）”能力。 你不需要向模型解释长篇大论的规则，只需要直接给它展示 1 个（One-Shot）到多个（Few... ]]></description>
    <pubDate>Thu, 23 Apr 2026 07:44:22 GMT</pubDate>
  </item><item>
    <title>Function Calling &amp; Tool Use 笔记</title>
    <link>https://chengliang.vercel.app/%E6%8A%80%E6%9C%AF/Prompt-Engineering/Function-Calling--and--Tool-Use-%E7%AC%94%E8%AE%B0</link>
    <guid>https://chengliang.vercel.app/%E6%8A%80%E6%9C%AF/Prompt-Engineering/Function-Calling--and--Tool-Use-%E7%AC%94%E8%AE%B0</guid>
    <description><![CDATA[  一句话看懂：Function Calling 让模型负责“选工具 + 填参数”，让你的代码负责“真正执行”——它是把 LLM 接到数据库/API/文件系统上的标准闭环。 一、 核心概念：打破“大模型自己会执行代码”的错觉 新手最容易陷入的误区是：“大模型可以直接帮我查数据库、调 API”。 真相是：大模型被困在服务器的沙盒里，它什么都执行不了。 Function Calling 的本质是一个**“标准化格式的信差游戏”**： 你告诉大模型：“我这里有一套工具（API），这是它们的说明书。” 大模型根据用户的提问，判断需要用哪个工具，然后生成一段符合该工具参数格式的 JSON 给你。 **你（... ]]></description>
    <pubDate>Thu, 23 Apr 2026 07:44:22 GMT</pubDate>
  </item><item>
    <title>Harness Engineering（Agent 运行底座）笔记</title>
    <link>https://chengliang.vercel.app/%E6%8A%80%E6%9C%AF/Prompt-Engineering/Harness-Engineering%EF%BC%88Agent-%E8%BF%90%E8%A1%8C%E5%BA%95%E5%BA%A7%EF%BC%89%E7%AC%94%E8%AE%B0</link>
    <guid>https://chengliang.vercel.app/%E6%8A%80%E6%9C%AF/Prompt-Engineering/Harness-Engineering%EF%BC%88Agent-%E8%BF%90%E8%A1%8C%E5%BA%95%E5%BA%A7%EF%BC%89%E7%AC%94%E8%AE%B0</guid>
    <description><![CDATA[  一句话看懂：Harness 是把 LLM 从“会聊天”变成“能干活”的运行底座——它负责上下文管理、工具执行、容错与状态机，让 Agent 可控、可复现、可上线。 当你看透 Agent = Prompt + Harness（Prompt Eng + Context Eng + MCP） 这个公式，就进入了 AI 智能体工程化 的主战场：LLM 只是“会自然语言的 CPU”，Harness 才是让系统跑起来的主板与外设。 1. ]]></description>
    <pubDate>Thu, 23 Apr 2026 07:44:22 GMT</pubDate>
  </item><item>
    <title>JSON Schema 笔记</title>
    <link>https://chengliang.vercel.app/%E6%8A%80%E6%9C%AF/Prompt-Engineering/JSON-Schema-%E7%AC%94%E8%AE%B0</link>
    <guid>https://chengliang.vercel.app/%E6%8A%80%E6%9C%AF/Prompt-Engineering/JSON-Schema-%E7%AC%94%E8%AE%B0</guid>
    <description><![CDATA[  一句话看懂：JSON Schema 就是给 JSON 数据“立规矩”的蓝图——它把类型、边界、必填项写死，让模型/接口只能输出你允许的结构。 1. ]]></description>
    <pubDate>Thu, 23 Apr 2026 07:44:22 GMT</pubDate>
  </item><item>
    <title>Model Context Protocol（MCP）笔记</title>
    <link>https://chengliang.vercel.app/%E6%8A%80%E6%9C%AF/Prompt-Engineering/Model-Context-Protocol%EF%BC%88MCP%EF%BC%89%E7%AC%94%E8%AE%B0</link>
    <guid>https://chengliang.vercel.app/%E6%8A%80%E6%9C%AF/Prompt-Engineering/Model-Context-Protocol%EF%BC%88MCP%EF%BC%89%E7%AC%94%E8%AE%B0</guid>
    <description><![CDATA[  一句话看懂：MCP 是让大模型“即插即用”连接工具与数据源的统一接口标准，用协议终结为每个模型/每个外设都手写胶水代码的 N×M 灾难。 在掌握了 Function Calling 和 Context Engineering 之后，你会发现一个巨大的工程痛点：如果我想让大模型查 SQLite 数据库，我得写一套 Tool Schema；换成读 Github 仓库，我又得写一套；如果你切换了底层基座（从 OpenAI 换到 Gemini），代码甚至还要大改。这被称为 AI 基础设施的 N x M 灾难。 MCP (Model Context Protocol) 就是为了终结这个痛点而诞生的。由... ]]></description>
    <pubDate>Thu, 23 Apr 2026 07:44:22 GMT</pubDate>
  </item>
    </channel>
  </rss>