从人工智能到大语言模型,从原理到智能体
带你一步步理解 AI 的核心概念
AI(Artificial Intelligence)= 让机器具备「智能」的能力
游戏中的电脑玩家,能做出决策、追击、逃跑
如生物集群模拟、路径规划等经典算法
当今人们口中的「AI」,多指 LLM(Large Language Model)
大语言模型 ≈ 一个「文字接龙」的概率模型
LLM 本质上是一个 文字概率模型:给定一段文字,预测下一个字最可能是什么,然后把新字加入原文,继续预测下一个字……如此循环,最终生成完整回答。
用海量数据,拟合出一个「足够好」的函数
已知数据 (1,2) (2,4) (4,8) (6,12),我们拟合出 f(x)=2x
新数据 (5,11) (7,13) 虽不完全吻合,但足够接近 —— 函数依然有效
💡 LLM 就是用 超大规模 的数据和参数,拟合出一个「预测下一个字」的超级函数
从简单函数 → 神经网络 → 超大规模语言模型
现实中 LLM 使用多层神经网络,拥有数十亿甚至数千亿个参数(连线),通过海量文本训练,学会预测下一个字。
💬 对话能力:将文字分为「用户」和「AI」两个角色,放入上下文,模型自然学会对话格式。
LLM 的所有对话历史,就是它的「记忆」
LLM 每次回答时,都会读取之前所有对话作为上下文,据此生成下一个字。
🎯 AGENT 雏形:通过在上下文中设定角色(如厨师),LLM 的回答会侧重于该角色的专业领域。
让 LLM 拥有「行动」的能力 —— 感知 → 决策 → 执行 → 循环
问题:LLM 不知道实时天气、新闻等信息
方案:在上下文中告诉 LLM 「你可以调用查天气工具」
当 LLM 判断需要查天气时,会输出特定格式 → 程序检测到后调用工具 → 将结果加入上下文 → LLM 继续生成回答
定义一套协议,让 Agent 能完成各种任务
SKILL = 一份「操作指南」,告诉 LLM 如何完成特定任务
SKILL.md 告诉 LLM:
LLM 读取 SKILL 后,就能像一个熟练工人一样,按流程完成任务。
让 Agent 跨越会话,记住重要的事
每次新会话,上下文都会被清空。没有记忆,Agent 就像「失忆」了一样。
Memory 本质是一个持久化文档,LLM 自行判断哪些信息重要并写入。
💡 下次对话时,Agent 读取 Memory 即可快速恢复上下文,让人感觉它「很聪明」。
四款代表性 Coding Agent,各有侧重
终端 Agent,深度集成代码理解、编辑、测试全流程,适合大型项目
开源 Agent,支持多模型切换,可自定义 Skill 和工具,社区驱动
轻量框架,清晰工具调用协议与简洁上下文管理,快速上手
多智能体协作研究框架,探索 Agent 间高效通信与任务分解
| 特性 | 🔮 Claude Code | 🐙 OpenCode | 🦞 OpenClaw | 🕊️ Hermes |
|---|---|---|---|---|
| 模型支持 | Claude | 多模型 | 可扩展 | 多模型 |
| 开源 | ❌ | ✅ | ✅ | ✅ |
| 定位 | 专业开发 | 通用开发 | 轻量框架 | 多智能体研究 |
| 复杂度 | ⭐⭐⭐ | ⭐⭐ | ⭐ | ⭐⭐⭐ |
| Skill 生态 | 丰富 | 社区驱动 | 基础 | 实验性 |
| 适合场景 | 大型项目 | 日常开发 | 快速搭建 | 研究探索 |
长时间运行 · 任务分解 · Agent 间通信 · 自主决策
单一 Agent 能力有限,复杂任务需要多个 Agent 分工协作:
⏱️ 长时间运行:Agent 可持续运行数小时甚至数天,通过共享 Memory 协作,处理超大规模任务(如重构整个项目、自动化测试流水线等)。