CoT、ReAct和DSP作为提示词工程的核心技术,正在重塑人类与大语言模型的协作方式。它们不仅提升了模型处理复杂任务的能力,更通过结构化的推理与交互,增强了AI系统的可靠性与可解释性——这正是迈向可信AI的关键一步。

在人工智能与自然语言处理飞速发展的今天,大型语言模型(LLMs)已成为信息处理与智能交互的核心工具。然而,模型的强大能力并非与生俱来的“魔法”,其性能的发挥很大程度上取决于人类如何与之沟通——这就是提示词工程(Prompting)的核心价值。提示词不仅决定了模型对任务的理解程度,影响其推理路径,更直接关系到输出结果的实用性与可靠性。

随着模型能力的不断增强,它们能够处理的任务复杂度呈指数级提升,但前提是我们能提供精准、结构化的指令。在众多提示词技术中,思维链(Chain-of-Thought,简称CoT)、ReAct和声明式自提示(Declarative Self-Prompting,简称DSP)脱颖而出,成为解决复杂任务的三大核心框架。本文将深入解析这三种技术的原理、适用场景与实践方法,帮助读者掌握与大语言模型高效协作的关键能力。

一、思维链(Chain-of-Thought,CoT):让模型“逐步推理”

技术本质:模拟人类的“解题过程”

思维链提示词技术的核心在于引导模型在给出最终答案前,明确展示推理步骤——就像学生在做数学题时“写出解题过程”一样。这种方式打破了传统提示词中“直接输出答案”的模式,强制模型将复杂问题拆解为一系列逻辑连贯的子步骤,从而降低推理误差。

例如,在解决“航班到达时间”这类涉及多步计算的问题时,CoT会引导模型依次处理“出发时间→第一段航程结束时间→中转停留时间→第二段航程结束时间”的逻辑链条,而非直接跳跃到结果。这种“慢思考”的模式,恰好弥补了大语言模型在复杂推理中容易“走捷径”导致错误的缺陷。

适用场景:依赖内部知识的逻辑推理任务

CoT特别适合以下几类任务:

  • 逻辑谜题(如“谁是凶手”类推理题)
  • 数学问题(包括代数运算、几何证明等)
  • 文字应用题(如行程问题、利润计算等)
  • 无需外部工具支持的一般性推理任务

以数学问题为例,当面对“一个书架有3层,每层比上一层多2本书,总共有30本书,最上层有多少本?”这类题目时,直接让模型输出答案可能会因计算步骤省略而出错,而CoT通过“设未知数→列方程→求解”的分步推理,能显著提升正确率。

实践案例:航班到达时间计算

问题:某航班上午11:50出发,中转停留1小时15分钟,第二段航程耗时3小时40分钟,最终到达时间是多少?

CoT提示词:

让我们一步步思考:
- 航班出发时间为上午11:50。
- 第一段航程结束后,到达中转机场的时间为11:50 + 1小时15分钟 = 下午1:05。
- 加上中转停留时间1小时15分钟,出发前往最终目的地的时间为1:05 + 1小时15分钟 = 下午2:20。
- 第二段航程耗时3小时40分钟,因此最终到达时间为2:20 + 3小时40分钟 = 下午6:00。
答案:下午6:00

这个案例中,提示词设计者通过明确要求“分步思考”,引导模型将时间计算拆解为三个子步骤,每一步都基于前一步的结果,最终得出正确答案。

技术优势:提升复杂任务的可靠性

即使大语言模型理论上“知道”答案,在处理多步骤问题时,直接输出答案的准确率往往大幅下降。CoT的价值在于:

  1. 任务拆解:将复杂问题转化为可管理的思维步骤,降低认知负荷;
  2. 减少错误:通过显式推理减少跳跃性思维导致的幻觉(Hallucination)与计算错误;
  3. 可解释性:推理过程的透明化让人类能够追溯错误来源,便于调试与优化。

在实际应用中,通常会给模型提供“单样本”(One-shot)或“少样本”(Few-shot)的CoT示例,示范分步推理的模式。这对于数学、逻辑或数据类问题尤为重要,能帮助模型快速掌握正确的推理范式。在金融、法律、医疗等高风险领域,这种可追溯的推理过程甚至比答案本身更重要——因为错误的决策可能导致巨大损失,而CoT提供的“思维轨迹”是责任界定与过程优化的关键依据。

二、ReAct:让模型“边思考边行动”

技术本质:推理与工具调用的闭环

ReAct技术的核心是将“推理”(Reason)与“行动”(Act)结合,形成“思考→行动→观察→再思考”的循环。与CoT仅依赖模型内部知识不同,ReAct允许模型主动调用外部工具(如搜索引擎、API接口、计算器等),通过与外部环境的交互获取信息,再基于新信息推进推理。

这种模式模拟了人类解决实际问题的过程:当遇到未知信息时,我们会主动查阅资料、使用工具,而非仅凭记忆作答。例如,在回答“当前天气如何”时,模型需要先确定用户位置,再调用天气API获取数据,最终整理结果——这正是ReAct的典型应用流程。

适用场景:需外部工具支持的动态任务

ReAct特别适合以下任务类型:

  • 依赖实时数据的问题(如天气查询、股票价格、新闻事件)
  • 需要计算工具的复杂运算(如大型数据统计、科学计算)
  • 交互式问题解决(如多轮对话中的信息补充)
  • 动态多步骤决策(如行程规划、资源调度)

在实际应用中,ReAct是构建LLM驱动的智能代理(Agents)的基础技术,例如LangChain代理、OpenAI函数调用机器人、WebGPT和AutoGPT等工具,均以ReAct为核心架构。

实践案例:实时天气查询

问题:现在的天气怎么样?

ReAct交互流程:

  1. 思考:我需要知道用户的当前位置才能查询天气。
  2. 行动:调用GetLocation()工具。
  3. 观察:工具返回“用户位于印度班加罗尔”。
  4. 思考:现在需要获取班加罗尔的实时天气数据。
  5. 行动:调用WeatherAPI("班加罗尔,印度")。
  6. 观察:工具返回“28°C,多云”。
  7. 答案:班加罗尔当前气温28°C,多云。

这个案例中,模型通过两次工具调用完成了信息获取,每次行动都基于前一步的思考与观察结果,形成了闭环的问题解决流程。

技术要点:工具选择与流程设计

成功应用ReAct的关键在于合理设计工具集与交互规则:

  • 工具定义:在系统提示中明确可调用的工具(如“你可以使用Search()、Calculator()、WeatherAPI()”),并说明每个工具的功能与参数要求;
  • 示例引导:提供1-2个完整的ReAct示例,示范“思考→行动→观察”的流程,帮助模型掌握工具调用时机;
  • 验证机制:鼓励模型在每次观察后进行反思,确认信息是否足够,避免无效工具调用。

在ReAct框架中,人类(提示词设计者)负责定义交互格式与工具集,而模型自主决定何时调用何种工具——这种“人类定规则,模型做决策”的分工,既保证了流程的可控性,又赋予了模型处理动态任务的灵活性。

三、声明式自提示(DSP):让模型“自主规划任务”

技术本质:从“被动执行”到“主动规划”

声明式自提示(DSP)技术突破了传统提示词中“人类指定步骤”的模式,允许模型在解决任务前自主制定计划。其核心逻辑是:复杂任务往往可分解为多个独立子任务,模型先分析任务结构,列出子任务清单,再逐一解决,最后整合结果。

例如,在处理“分析用户评论的产品名称与情感倾向”时,DSP会引导模型先规划“识别产品→分析情感”两个子步骤,再分别执行,最终汇总答案。这种“先规划、后执行”的模式,特别适合模块化程度高的复杂任务。

适用场景:多阶段、多技能融合的任务

DSP的优势在以下场景中尤为突出:

  • 具有明确阶段划分的工作流(如“总结→分类→翻译”的文档处理流程)
  • 融合多种技能的任务(如“信息提取+数据计算+报告生成”)
  • 需要可靠模块化输出的场景(如LLM流水线处理)

在实际应用中,DSP无需对模型进行微调,只需通过提示词定义规划框架,任何具备基础能力的LLM都能遵循模板执行任务,这大大降低了技术落地的门槛。

实践案例:评论分析任务

问题:阅读以下评论,指出其涉及的产品及情感倾向。

DSP处理流程:

  1. 规划阶段:
  • 子任务1:识别评论中提到的产品。
  • 子任务2:分析评论的情感倾向(正面/负面)。
  1. 执行阶段:
  • 子任务1结果:三星手机
  • 子任务2结果:正面
  1. 整合阶段:
  • 产品:三星手机
  • 情感:正面
  • 最终答案:

这个案例中,模型通过自主规划子任务,将复杂的评论分析拆解为两个简单任务,分步处理后再整合结果,确保了每个环节的准确性。

技术要点:规划框架的设计

DSP的核心在于设计清晰的规划模板,典型的提示词结构如下:

你是一名规划助手。对于任何任务,请先输出JSON格式的子任务列表,然后逐一执行每个子任务,最后整合结果。

任务:<用户问题>
首先,列出解决任务所需的步骤(编号形式)。
然后,为每个步骤标注“步骤X结果:”并填写内容。
最后,在“最终答案:”部分汇总结果。

通过这种元提示(Meta-prompt),人类定义了“规划→执行→整合”的框架,而模型负责填充具体内容。为增强效果,可添加单样本或少样本示例,示范子任务的划分方式。此外,DSPy等框架通过微调模型进一步优化任务分解能力,但核心仍基于提示词工程——即通过指令引导模型自主组织思维。

四、三大技术的对比与协同

技术特性对比

技术维度

思维链(CoT)

ReAct

声明式自提示(DSP)

核心逻辑

分步推理,依赖内部知识

推理+工具调用,闭环交互

自主规划子任务,分步执行

结构定义者

人类(提示词设计者)

人类(格式)+模型(行动)

人类(框架)+模型(子任务)

工具依赖

强依赖外部工具

可选,视任务需求而定

适用场景

逻辑/数学/文字题

实时信息/工具交互

多阶段/模块化任务

可解释性

高(可见推理步骤)

高(可见工具调用轨迹)

高(可见子任务规划)

技术选择指南

在实际应用中,可根据任务特性选择合适技术:

  • 若任务可仅依赖模型内部知识解决(如数学题、逻辑推理),优先使用CoT;
  • 若任务需要实时数据或外部工具(如天气查询、复杂计算),选择ReAct;
  • 若任务可分解为明确子步骤(如多阶段工作流),采用DSP。

值得注意的是,真实世界的复杂任务往往需要多种技术的协同。例如,一个智能客服系统可能先通过DSP规划“理解问题→查询数据库→生成回答”的子任务,在每个子任务中用ReAct调用工具获取信息,在工具返回结果后用CoT进行内部推理——这种“DSP规划+ReAct工具调用+CoT内部推理”的组合,能最大化模型的处理能力。

五、实践中的常见问题与解决方案

  1. CoT的步骤冗余问题
    部分任务可能因步骤过多导致效率低下。解决方案:通过少样本示例示范“关键步骤保留”原则,避免无意义的细节堆砌。
  2. ReAct的工具调用失控
    模型可能频繁调用不必要的工具。解决方案:在提示词中添加“调用工具前先确认是否必要”的约束,并设置最大调用次数限制。
  3. DSP的子任务划分不合理
    模型可能将任务分解为过细或过粗的子步骤。解决方案:提供更具体的子任务划分示例,明确“子任务应具有独立性与可执行性”。
  4. 技术选择的混淆
    难以判断任务适合哪种技术。解决方案:先分析任务是否需要外部工具(是则ReAct),再判断是否可分解为子步骤(是则DSP),否则使用CoT。

六、提示词技术的未来展望

CoT、ReAct和DSP作为提示词工程的核心技术,正在重塑人类与大语言模型的协作方式。它们不仅提升了模型处理复杂任务的能力,更通过结构化的推理与交互,增强了AI系统的可靠性与可解释性——这正是迈向可信AI的关键一步。

随着模型能力的进化,提示词技术将向更智能化、自动化的方向发展。未来,我们可能看到“自适应提示”(根据任务动态选择技术)、“多模型协同提示”(不同模型分工处理子任务)等创新模式,但无论技术如何演变,“让模型更好理解人类意图”的核心目标始终不变。

对于开发者与研究者而言,掌握这些提示词技术不仅是提升模型性能的手段,更是深入理解AI思维模式的窗口。通过精准的指令设计,我们能引导模型突破能力边界,在科研、医疗、教育等领域创造更大价值——这正是提示词工程的终极意义所在。

 

 

   如何系统的去学习大模型LLM ?

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。

事实上,抢你饭碗的不是AI,而是会利用AI的人。

科大讯飞、阿里、华为等巨头公司发布AI产品后,很多中小企业也陆续进场!超高年薪,挖掘AI大模型人才! 如今大厂老板们,也更倾向于会AI的人,普通程序员,还有应对的机会吗?

与其焦虑……

不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!

但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高。

针对所有自学遇到困难的同学们,我帮大家系统梳理大模型学习脉络,将这份 LLM大模型资料 分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程

一、LLM大模型经典书籍

AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。

在这里插入图片描述

二、640套LLM大模型报告合集

这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)

在这里插入图片描述

 三、LLM大模型系列视频教程

在这里插入图片描述

四、LLM大模型开源教程(LLaLA/Meta/chatglm/chatgpt)

在这里插入图片描述

LLM大模型学习路线 

阶段1:AI大模型时代的基础理解
  • 目标:了解AI大模型的基本概念、发展历程和核心原理。

  • 内容

  • L1.1 人工智能简述与大模型起源
  • L1.2 大模型与通用人工智能
  • L1.3 GPT模型的发展历程
  • L1.4 模型工程
  • L1.4.1 知识大模型
  • L1.4.2 生产大模型
  • L1.4.3 模型工程方法论
  • L1.4.4 模型工程实践
  • L1.5 GPT应用案例
阶段2:AI大模型API应用开发工程
  • 目标:掌握AI大模型API的使用和开发,以及相关的编程技能。

  • 内容

  • L2.1 API接口
  • L2.1.1 OpenAI API接口
  • L2.1.2 Python接口接入
  • L2.1.3 BOT工具类框架
  • L2.1.4 代码示例
  • L2.2 Prompt框架
  • L2.3 流水线工程
  • L2.4 总结与展望
阶段3:AI大模型应用架构实践
  • 目标:深入理解AI大模型的应用架构,并能够进行私有化部署。

  • 内容

  • L3.1 Agent模型框架
  • L3.2 MetaGPT
  • L3.3 ChatGLM
  • L3.4 LLAMA
  • L3.5 其他大模型介绍
阶段4:AI大模型私有化部署
  • 目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。

  • 内容

  • L4.1 模型私有化部署概述
  • L4.2 模型私有化部署的关键技术
  • L4.3 模型私有化部署的实施步骤
  • L4.4 模型私有化部署的应用场景

这份 LLM大模型资料 包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 下方小卡片领取🆓↓↓↓ 

 

 

Logo

魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。

更多推荐