2.Agent智能体分类

Agent 学习笔记 (二):智能体的进化之路与分类图谱

1. 智能体的发展历程 (The Evolution of Agents)

1.1 从控制论到大模型:三个关键阶段

智能体并不是横空出世的概念,它的演进经历了从“硬编码”到“自我学习”,再到如今“常识推理”的跨越。

  1. 早期控制论 (Cybernetics & Symbolic AI)
  • 特点:基于固定的逻辑门和专家系统。
  • 痛点:只能处理高度结构化的环境,稍微改变规则就会失效(脆性)。
  1. 强化学习时代 (Reinforcement Learning)
  • 特点:Agent 通过“试错”和奖励机制(Reward)来学习策略。
  • 代表:AlphaGo。
  • 痛点:泛化能力极弱。下围棋的智能体没法帮你订机票,每个任务都需要从零训练。
  1. 大模型驱动时代 (LLM-based Agents)
  • 特点:以大模型为“大脑”,利用海量的通用知识进行零样本(Zero-shot)推理。
  • 救赎:赋予了 Agent 真正的“通用性”,使其能够像人类一样通过自然语言理解复杂意图。

2. 智能体的核心分类 (Taxonomy of Agents)

在经典的 AI 理论(如《AIMA》)中,根据 Agent 的“聪明程度”和处理逻辑,通常将其分为以下五类。理解这些分类有助于我们在工程实践中选择最合适的架构。

类型 核心逻辑 适用场景
简单反射智能体 (Simple Reflex) 根据当前感知直接做出反应 (Condition-Action)。 简单的自动化脚本(如:检测到 CPU 占用 > 90% 就告警)。
基于模型的反射 (Model-based) 能够维护一个“内部状态”,记录当前看不到的环境信息。 复杂的系统监控(需要结合历史状态判断当前异常)。
基于目标的智能体 (Goal-based) 拥有明确的目标,会主动寻找达成路径。 我们目前学习的主流 Agent(如:帮我部署一套 K8s 集群)。
基于效用的智能体 (Utility-based) 不仅要完成目标,还要寻找“最优解”(如最省钱、最快速)。 资源调度优化、路径规划。
学习智能体 (Learning Agents) 能够从执行结果中学习,不断改进性能。 自我进化的代码修复 Agent。

3. 现代 LLM Agent 的架构范式 (Modern Paradigms)

在当前的工程实践中,我们更多地从“运作模式”来区分 Agent。这类似于 Docker Compose 中对不同 Service 的定义方式。

3.1 自主智能体 (Autonomous Agents)

  • 定义:给定一个高层目标(Goal),Agent 自行拆解步骤、调用工具并完成任务。
  • 例子:AutoGPT。你告诉它“帮我调研某项技术并写一份报告”,剩下的它全包。

3.2 协作智能体 (Multi-Agent Systems, MAS)

  • 定义:多个 Agent 扮演不同角色(如:程序员、测试员、架构师),通过对话协作完成复杂工程。
  • 类比:这非常像我们 IT 开发中的团队协作模式。每个 Agent 只需要精通自己的领域。

4. 深入理解:智能体的“心智模型” (Mindset of an Agent)

正如 Docker 容器需要镜像(Image)作为模板,Agent 的运行依赖于以下三个核心支柱的解耦:

  1. Planning (规划能力):将大目标拆解为子任务(Task Decomposition)。
  2. Memory (记忆能力)
  • 短期记忆:Context(上下文)。
  • 长期记忆:Vector DB(向量数据库 / RAG)。
  1. Tool Use (工具调用):通过 API 扩展能力边界。

5. 总结 (Summary)

Agent 的进化史本质上是**“自动化程度”不断提升**的过程。

  • 从早期的 If-Else 到现在的 LLM Reasoning
  • 从单一任务的脚本到具备“心智”的自主实体。