diff --git a/pages/techniques/_meta.zh.json b/pages/techniques/_meta.zh.json index 5d30bc675..b5e409c96 100644 --- a/pages/techniques/_meta.zh.json +++ b/pages/techniques/_meta.zh.json @@ -4,17 +4,18 @@ "cot": "链式思考(CoT)提示", "consistency": "自我一致性", "knowledge": "生成知识提示", - "prompt_chaining": "Prompt Chaining", + "prompt_chaining": "链式提示", "tot": "思维树(ToT)", "rag": "检索增强生成 (RAG)", "art": "自动推理并使用工具(ART)", "ape": "自动提示工程师", - "activeprompt": "Active-Prompt", + "activeprompt": "主动提示", "dsp": "方向性刺激提示", - "pal": "Program-Aided Language Models", + "pal": "PAL(程序辅助语言模型)", "react": "ReAct框架", - "reflexion": "Reflexion", + "reflexion": "自我反思(Reflexion)", "multimodalcot": "多模态思维链提示方法", - "graph": "基于图的提示" + "graph": "基于图的提示", + "meta-prompting": "元提示词(Meta Prompting)" } - \ No newline at end of file + diff --git a/pages/techniques/activeprompt.zh.mdx b/pages/techniques/activeprompt.zh.mdx index fb9b2f461..38f2fed55 100644 --- a/pages/techniques/activeprompt.zh.mdx +++ b/pages/techniques/activeprompt.zh.mdx @@ -1,10 +1,10 @@ -# Active-Prompt +# 主动提示(Active-Prompt) import { Callout, FileTree } from 'nextra-theme-docs' import {Screenshot} from 'components/screenshot' import ACTIVE from '../../img/active-prompt.png' -思维链(CoT)方法依赖于一组固定的人工注释范例。问题在于,这些范例可能不是不同任务的最有效示例。为了解决这个问题,[Diao 等人(2023)](https://arxiv.org/pdf/2302.12246.pdf)最近提出了一种新的提示方法,称为 Active-Prompt,以适应 LLMs 到不同的任务特定示例提示(用人类设计的 CoT 推理进行注释)。 +思维链(CoT)方法依赖于一组固定的人工注释范例。问题在于,这些范例可能不是不同任务的最有效示例。为了解决这个问题,[Diao 等人(2023)](https://arxiv.org/pdf/2302.12246.pdf)最近提出了一种新的提示方法,称为主动提示,以适应 LLMs 到不同的任务特定示例提示(用人类设计的 CoT 推理进行注释)。 下面是该方法的说明。第一步是使用或不使用少量 CoT 示例查询 LLM。对一组训练问题生成 *k* 个可能的答案。基于 *k* 个答案计算不确定度度量(使用不一致性)。选择最不确定的问题由人类进行注释。然后使用新的注释范例来推断每个问题。 diff --git a/pages/techniques/meta-prompting.zh.mdx b/pages/techniques/meta-prompting.zh.mdx new file mode 100644 index 000000000..bd654a47c --- /dev/null +++ b/pages/techniques/meta-prompting.zh.mdx @@ -0,0 +1,73 @@ +# 元提示词(Meta Prompting) +import { CoursePromo, CoursesSection, CourseCard } from '../../components/CourseCard' + +## 介绍 + +元提示词是一种高级提示技术,它关注任务和问题的结构与句法层面,而非具体的细节内容。元提示词的目标是构建一种与大语言模型(LLM)交互的更抽象、结构化的方式,强调信息的形式与模式,而非传统的以内容为中心的方法。 + +## 核心特性 + +根据[Zhang等人,2024](https://arxiv.org/abs/2311.11482)的研究,元提示词的核心特性可归纳如下: + +**1. 结构导向**: 优先考虑问题和解决方案的格式与模式,而非具体内容。 + +**2. 句法聚焦**: 利用句法作为预期回答或解决方案的引导模板。 + +**3. 抽象示例**: 使用抽象示例作为框架,展示问题和解决方案的结构,而不关注具体细节。 + +**4. 多用途**: 适用于各种领域,能够针对广泛的问题提供结构化的响应。 + +**5. 分类方法**: 借助类型理论,强调提示中组件的分类和逻辑排列。 + +## 与少样本提示 (Few-Shot Prompting) 的优势对比 + +[Zhang等人, 2024](https://arxiv.org/abs/2311.11482) 指出,元提示词与少样本提示的不同之处在于,元提示词侧重于结构导向的方法,而少样本提示则强调内容驱动的方法。 + +以下示例(原自[Zhang等人, 2024](https://arxiv.org/abs/2311.11482))展示了在解决 MATH 基准测试问题时,结构化元提示词与少样本提示词之间的区别: + +!["Meta Prompting"](../../img/techniques/meta-prompting.png) + +元提示词相比少样本提示的优势包括: + +**1. Token 效率**: 通过聚焦结构而非详细内容,减少了所需的 Token 数量。 + +**2. 公平比较**: 通过最小化具体示例的影响,为比较不同解题模型提供了一种更公平的方法。 + +**3. 零样本效能**: 可以被视为一种特殊的零样本提示,使具体示例的干扰降至最低。 + +## 应用场景 + +通过聚焦解题的结构模式,元提示词为处理复杂话题提供了清晰的路线图,增强了 LLM 在各个领域的推理能力。 + +需要注意的是,元提示词假设 LLM 对所处理的特定任务或问题具有内在知识。虽然 LLM 可以泛化到未见过的任务,但对于非常独特且新颖的任务,元提示词的表现可能会像零样本提示一样有所下降。 + +元提示词受益的应用领域包括但不限于:复杂推理任务、数学问题求解、编程挑战以及理论查询。 + + + + + + + \ No newline at end of file diff --git a/pages/techniques/reflexion.zh.mdx b/pages/techniques/reflexion.zh.mdx index 5ff6973da..06181aed1 100644 --- a/pages/techniques/reflexion.zh.mdx +++ b/pages/techniques/reflexion.zh.mdx @@ -1,6 +1,6 @@ # 自我反思(Reflexion) -自我反思是一个通过语言反馈来强化基于语言的智能体的框架。根据 [Shinn et al. (2023)](https://arxiv.org/pdf/2303.11366.pdf),“自我反思是一种‘口头’强化的新范例,它将策略参数化为智能体的记忆编码与 LLM 的参数选择配对。” +自我反思是一个通过语言反馈来强化基于语言的智能体的框架。根据 [Shinn等人, (2023)](https://arxiv.org/pdf/2303.11366.pdf),“自我反思是一种‘口头’强化的新范例,它将策略参数化为智能体的记忆编码与 LLM 的参数选择配对。” 在高层次上,自我反思将来自环境的反馈(自由形式的语言或者标量)转换为语言反馈,也被称作 **self-reflection**,为下一轮中 LLM 智能体提供上下文。这有助于智能体快速有效地从之前的错误中学习,进而提升许多高级任务的性能。