diff --git a/pages/techniques/_meta.zh.json b/pages/techniques/_meta.zh.json
index 5d30bc675..b5e409c96 100644
--- a/pages/techniques/_meta.zh.json
+++ b/pages/techniques/_meta.zh.json
@@ -4,17 +4,18 @@
"cot": "链式思考(CoT)提示",
"consistency": "自我一致性",
"knowledge": "生成知识提示",
- "prompt_chaining": "Prompt Chaining",
+ "prompt_chaining": "链式提示",
"tot": "思维树(ToT)",
"rag": "检索增强生成 (RAG)",
"art": "自动推理并使用工具(ART)",
"ape": "自动提示工程师",
- "activeprompt": "Active-Prompt",
+ "activeprompt": "主动提示",
"dsp": "方向性刺激提示",
- "pal": "Program-Aided Language Models",
+ "pal": "PAL(程序辅助语言模型)",
"react": "ReAct框架",
- "reflexion": "Reflexion",
+ "reflexion": "自我反思(Reflexion)",
"multimodalcot": "多模态思维链提示方法",
- "graph": "基于图的提示"
+ "graph": "基于图的提示",
+ "meta-prompting": "元提示词(Meta Prompting)"
}
-
\ No newline at end of file
+
diff --git a/pages/techniques/activeprompt.zh.mdx b/pages/techniques/activeprompt.zh.mdx
index fb9b2f461..38f2fed55 100644
--- a/pages/techniques/activeprompt.zh.mdx
+++ b/pages/techniques/activeprompt.zh.mdx
@@ -1,10 +1,10 @@
-# Active-Prompt
+# 主动提示(Active-Prompt)
import { Callout, FileTree } from 'nextra-theme-docs'
import {Screenshot} from 'components/screenshot'
import ACTIVE from '../../img/active-prompt.png'
-思维链(CoT)方法依赖于一组固定的人工注释范例。问题在于,这些范例可能不是不同任务的最有效示例。为了解决这个问题,[Diao 等人(2023)](https://arxiv.org/pdf/2302.12246.pdf)最近提出了一种新的提示方法,称为 Active-Prompt,以适应 LLMs 到不同的任务特定示例提示(用人类设计的 CoT 推理进行注释)。
+思维链(CoT)方法依赖于一组固定的人工注释范例。问题在于,这些范例可能不是不同任务的最有效示例。为了解决这个问题,[Diao 等人(2023)](https://arxiv.org/pdf/2302.12246.pdf)最近提出了一种新的提示方法,称为主动提示,以适应 LLMs 到不同的任务特定示例提示(用人类设计的 CoT 推理进行注释)。
下面是该方法的说明。第一步是使用或不使用少量 CoT 示例查询 LLM。对一组训练问题生成 *k* 个可能的答案。基于 *k* 个答案计算不确定度度量(使用不一致性)。选择最不确定的问题由人类进行注释。然后使用新的注释范例来推断每个问题。
diff --git a/pages/techniques/meta-prompting.zh.mdx b/pages/techniques/meta-prompting.zh.mdx
new file mode 100644
index 000000000..bd654a47c
--- /dev/null
+++ b/pages/techniques/meta-prompting.zh.mdx
@@ -0,0 +1,73 @@
+# 元提示词(Meta Prompting)
+import { CoursePromo, CoursesSection, CourseCard } from '../../components/CourseCard'
+
+## 介绍
+
+元提示词是一种高级提示技术,它关注任务和问题的结构与句法层面,而非具体的细节内容。元提示词的目标是构建一种与大语言模型(LLM)交互的更抽象、结构化的方式,强调信息的形式与模式,而非传统的以内容为中心的方法。
+
+## 核心特性
+
+根据[Zhang等人,2024](https://arxiv.org/abs/2311.11482)的研究,元提示词的核心特性可归纳如下:
+
+**1. 结构导向**: 优先考虑问题和解决方案的格式与模式,而非具体内容。
+
+**2. 句法聚焦**: 利用句法作为预期回答或解决方案的引导模板。
+
+**3. 抽象示例**: 使用抽象示例作为框架,展示问题和解决方案的结构,而不关注具体细节。
+
+**4. 多用途**: 适用于各种领域,能够针对广泛的问题提供结构化的响应。
+
+**5. 分类方法**: 借助类型理论,强调提示中组件的分类和逻辑排列。
+
+## 与少样本提示 (Few-Shot Prompting) 的优势对比
+
+[Zhang等人, 2024](https://arxiv.org/abs/2311.11482) 指出,元提示词与少样本提示的不同之处在于,元提示词侧重于结构导向的方法,而少样本提示则强调内容驱动的方法。
+
+以下示例(原自[Zhang等人, 2024](https://arxiv.org/abs/2311.11482))展示了在解决 MATH 基准测试问题时,结构化元提示词与少样本提示词之间的区别:
+
+
+
+元提示词相比少样本提示的优势包括:
+
+**1. Token 效率**: 通过聚焦结构而非详细内容,减少了所需的 Token 数量。
+
+**2. 公平比较**: 通过最小化具体示例的影响,为比较不同解题模型提供了一种更公平的方法。
+
+**3. 零样本效能**: 可以被视为一种特殊的零样本提示,使具体示例的干扰降至最低。
+
+## 应用场景
+
+通过聚焦解题的结构模式,元提示词为处理复杂话题提供了清晰的路线图,增强了 LLM 在各个领域的推理能力。
+
+需要注意的是,元提示词假设 LLM 对所处理的特定任务或问题具有内在知识。虽然 LLM 可以泛化到未见过的任务,但对于非常独特且新颖的任务,元提示词的表现可能会像零样本提示一样有所下降。
+
+元提示词受益的应用领域包括但不限于:复杂推理任务、数学问题求解、编程挑战以及理论查询。
+
+
+
+
+
+
+
\ No newline at end of file
diff --git a/pages/techniques/reflexion.zh.mdx b/pages/techniques/reflexion.zh.mdx
index 5ff6973da..06181aed1 100644
--- a/pages/techniques/reflexion.zh.mdx
+++ b/pages/techniques/reflexion.zh.mdx
@@ -1,6 +1,6 @@
# 自我反思(Reflexion)
-自我反思是一个通过语言反馈来强化基于语言的智能体的框架。根据 [Shinn et al. (2023)](https://arxiv.org/pdf/2303.11366.pdf),“自我反思是一种‘口头’强化的新范例,它将策略参数化为智能体的记忆编码与 LLM 的参数选择配对。”
+自我反思是一个通过语言反馈来强化基于语言的智能体的框架。根据 [Shinn等人, (2023)](https://arxiv.org/pdf/2303.11366.pdf),“自我反思是一种‘口头’强化的新范例,它将策略参数化为智能体的记忆编码与 LLM 的参数选择配对。”
在高层次上,自我反思将来自环境的反馈(自由形式的语言或者标量)转换为语言反馈,也被称作 **self-reflection**,为下一轮中 LLM 智能体提供上下文。这有助于智能体快速有效地从之前的错误中学习,进而提升许多高级任务的性能。