太全了!谷歌官方AI提示词白皮书流出,一文学会核心写法,超过90%打工人(纯干货建议收藏)

总觉得自己问AI的时候拿不到心仪的答案?

那你可以考虑学一下提示词的写法。

最近谷歌官方出了一个提示词的白皮书,内容很长,而且是全英文的。

图片

我把核心的两大块内容提取出来(主要满足日常办公学习),并用大白话讲一遍。

把这篇文章从头到尾看一遍,你能对大语言模型有初步的了解,并且学会基础的提示词写法。

废话不多说,现在就开始吧。

一、认识大型语言模型

大语言模型(LLM)就像一个学富五车但有时候会走神、需要你清晰引导的学生。它通过阅读海量的文字信息来学习,然后掌握词语之间的关系和模式。

LLM 的工作原理(猜词游戏)

你给LLM一句话作为开始(这就是输入),它就会根据自己学到的知识,预测接下来哪个词最可能出现在这里,然后把这个词写出来。

接着,它再根据前面所有已经写出来的文字,预测下一个最可能的词……就这样一个词一个词地“猜”下去,最终生成一段完整的文字(这就是输出)。

它猜得好不好,取决于它“学”得多不多,以及你的“指令”清不清晰。

提示词 (Prompt) 是什么

简单来说,提示词就是你给LLM的文字指令、问题或引导。

告诉LLM你想让它做什么,或者提供背景信息帮助它理解你的意图。

一个好的提示词就像是给那个“糊涂”学生的一份清晰的课堂任务单,让他知道目标是什么,需要怎么完成。

提示词工程有什么用

它是你掌控AI的关键!通过优化提示词,你可以让LLM更准确、更高效地完成各种任务,比如帮你写文章、做总结、翻译、编程、创意生成等等。

如果你给的提示词模棱两可或不够明确,LLM很可能会给你一个跑题、没用甚至奇奇怪怪的回答。

写出完美的提示词通常不是一步到位的,需要你像调教学生一样,不断尝试、修改、再尝试,这是一个持续优化的过程。

控制 LLM 的回答(简单设置)

LLM通常提供一些参数,可以调整它的输出风格。

  1. 回答的长度: 可以限制输出的字数或段落数。
  2. 回答的风格/变化(温度):
  • “温度”低: LLM会选择它认为最安全、最常见的词,回答倾向于保守、稳定,有点像教科书上的标准答案。
  • “温度”高: LLM会更“大胆”,敢于尝试一些不那么常见但可能有创意的词,回答会更活泼、多样,但也可能出现意外或跑偏的内容。

还有一些其他参数(如Top-K, Top-P),它们也是用来调节LLM选择词语时的“冒险”程度,影响输出的多样性。理解它们是用来调整AI“个性”的就行。

二、核心提示词技巧

1.零样本/一个样本/多个样本提示

这是最基本、最常用的一类提示方式,用来教语言模型“怎么做一件事”。

它们的区别在于:你给模型多少个示例(例子)?

① 零样本提示(Zero-shot)

不给例子,直接下命令,适合模型已经很熟悉的问题、结构清晰的任务。

🧠 概念:

Zero = 0,意思是你不给任何例子,直接告诉模型:“请你做这件事”。

🔍 示例:

请判断这段评论的情绪: “这电影好得让我差点哭了。” 请只回答:正面 / 中性 / 负面

🧾 模型输出:正面✅

② 一个样本提示(one-shot)

给一个示例当“样本”,适合任务格式比较复杂,但不需要太多指导的场景。

🧠 概念:

你先给模型一个例子,让它模仿这种结构,继续做下一个。

🔍 示例:

示例: 评论:“我喜欢这个产品,很实用。” → 正面

请判断: 评论:“太难用了,用一次就删。” → ?

🧾 模型输出:负面✅

③ 多样本提示(Few-shot)

让模型学着做,适合你要教模型遵循某种结构、风格,或者让它学某种判断规则。

🧠 概念:

Few = 少量,一般 2~5 个例子,帮模型“理解任务逻辑”。

🔍 示例:

示例1: 评论:“这电影真棒!” → 正面

示例2: 评论:“一般般,没什么特别。” → 中性

示例3: 评论:“真是浪费时间。” → 负面

请判断: 评论:“剧情拖沓,演技也一般。” → ?

🧾 模型输出:负面 ✅

📊 三种提示对比

模式
是否提供例子
特点
适合场景
Zero-shot
❌ 不提供
快速、简洁,但可能偏差大
模型熟悉的通用任务
One-shot
✅ 一个例子
有点“提示作用”,提升格式匹配
简单的结构化输出、轻微引导
Few-shot
✅ 多个例子
学习能力更强,模仿格式和风格
判断、分类、文案模仿、摘要等任务

✅ 一句话总结:

Zero / One / Few-shot 提示的核心在于:“你给模型看多少范例,它就学多少套路。”

2.设定提示

语言模型就像一个“万能演员”——你告诉它演谁、做什么、在什么场景,它就能模仿得像模像样。

所以我们要通过三种提示方式来“导演”它:

① 角色提示

✅ 概念

告诉模型“你现在是某种身份”。 它会根据这个身份自动调整说话方式、语气和知识范围。

🧠 类比

就像你对朋友说:“你扮演老师教我这个题”,对方立刻语气变认真。模型也是一样。

📝 示例

你是一个旅游导游,我在阿姆斯特丹,我想看博物馆,请推荐三个景点。

💡 变体:加入风格

你是一个幽默风趣的旅游导游……

模型可能会调皮地说:

想看博物馆?那一定不能错过梵高的“画疯子展览”!走,一起穿越艺术时空~

② 系统提示

✅ 概念

告诉模型“你该怎么做”,比如:

  • 输出格式要求
  • 不要废话
  • 使用什么语气

🧠 类比

像你点外卖时说:“放门口就行,不用敲门”。

📝 示例

请判断下面这条电影评论的情绪,只回复 POSITIVE / NEUTRAL / NEGATIVE,不要加其他内容。 评论:”Her 这部电影让我不安,但也很深刻。”

✅ 结果

NEGATIVE(消极)

为什么加“只回复标签”很重要?

否则模型可能会说:

这是一部引发思考的电影,情绪复杂……

这就不是我们要的结果了。

③ 上下文提示

✅ 概念

告诉模型“你现在是在什么背景下工作”,让它知道更多信息。

🧠 类比

比如你说:“还记得昨天我们讲到的项目吗?” → 这就是提供上下文,别人听了就不会误会你讲的是新话题。

📝 示例

背景:你正在写一篇关于80年代街机游戏的博客。请你推荐3个可以写的文章主题,并简单介绍每个主题内容。

✅ 结果

  1. 街机机台设计演变史
    • 从木质机箱到未来感造型,游戏不仅是内容,也是视觉享受。
  2. 像素艺术的前世今生
    • 讲述早期技术限制下的艺术创意,今天反而成为复古潮流。
  3. 影响一代人的经典街机游戏
    • 盘点太空侵略者、吃豆人等不朽 IP 的诞生与影响力。

对比:三种提示方式比较

类型
像在告诉模型
用途
示例关键词
角色提示
“你现在是个医生/导游”
控制语气、专业度、回答角度
“你是……的专家”
系统提示
“你要用简洁格式回答”
限制回答内容,统一输出风格
“只返回……”、“请勿解释”
上下文提示
“你正在处理某个具体情境”
增加上下文理解,提升准确性
“背景是……”、“情境是……”

✅ 使用建议(组合套路)

你可以组合这些提示来打造更强的提示句:

你是一个经验丰富的数据分析师,当前在处理客户满意度调查。 请你以专业简洁的语气,总结下列调查结果的三个关键趋势,返回 Markdown 格式的项目符号列表。

3.后退一步提问

什么是Step-back Prompting?

Step-back 的意思是“先退一步想一想,再来动手”。

这个技巧的目标是:不要直接叫模型做事,而是先让它“思考方法”,然后再解决问题。

为什么要这样做?

很多时候,大语言模型(LLM)直接答题会答错; 但如果你先引导它“怎么思考、有哪些选项”,它就会更靠谱。

🧠 类比理解

你问一个实习生:“写一份产品介绍文案。” 结果他写得四不像。

但如果你换句话问:

“你觉得一个好产品文案要包含哪些要素?列出来,再试着写一份。”

他表现是不是会好很多?模型也是一样!

📌 示例 1:写游戏剧情(对比)

❌ 直接提示:

写一个第一人称射击游戏的新关卡剧情。

🧾 模型输出:

你被敌人围困在城市里,要打出一条血路,穿过废墟,干掉敌人… (很套路)

✅ Step-back 提示

Step 1:先问“常见的好关卡设定有哪些?”

请列举5种在第一人称射击游戏中常见且具有挑战性的关卡场景设定。

🧾 模型输出:

  • 废弃军事基地
  • 僵尸小镇
  • 外星飞船
  • 网络黑客城市
  • 水下研究站
Step 2:再要求写剧情

现在请以“水下研究站”为背景,写一个新关卡剧情,用一段话描述。

🧾 模型输出:

你被派往一座废弃的深海实验室,那里弥漫着诡异电波和失踪科学家的回音……

📌 示例 2:写道歉信

❌ 直接提示

写一封道歉信,给因为发货延迟而不满的客户。

🧾 模型输出:

对不起,由于不可抗力导致延迟,我们深感歉意……

✅ Step-back 提示

写好一封道歉信,最重要的三个要素是什么?

🧾 模型输出:

  • 说明问题发生的原因
  • 表达真诚道歉
  • 提供补偿或解决方案

好的,请你基于这三点,为客户写一封道歉信,保持语气真诚、语言简洁。

🧾 模型输出:

尊敬的客户,非常抱歉您近期的订单出现了延迟。此次延误是由于仓库系统更新导致的物流排队,我们对此深感抱歉…… (内容更真诚、针对性更强)

对比:Step-back 提示 vs 直接提示

模式
操作方式
优点
缺点
❌ 直接提示
一上来就“做这件事”
快,但容易答偏或敷衍
对复杂任务效果差
✅ Step-back 提示
先问思路/策略,再执行任务
更准确、结构更合理
多一步交互,略复杂

如何写一个 Step-back 提示?

你可以按照以下结构来写:

任务目标:你想让模型完成的事

Step 1:请你列出 [完成这类任务的关键要素/常见思路/适用结构]

Step 2:根据上述内容,请你完成这个任务。

🧪 示例模板

任务目标:写出一个AI产品的宣传句子

Step 1:请列出一个优秀AI产品文案应包含的3个特点

Step 2:结合这些特点,为产品“小云雀AI剪辑工具”写一句宣传文案

🧾 模型可能输出:

“小云雀AI,一句话生成爆款视频,创作像呼吸一样简单!”

✅ 总结一句话

Step-back Prompting = 先思考,再执行

让模型先当“策划”,再当“工人”,结果往往更靠谱。

4.逐步思考提示

什么是 Chain of Thought(CoT)?

Chain of Thought(简称 CoT)是一种提示技巧, 通过引导模型“一步一步地思考”,来提高逻辑推理和复杂问题的回答质量。

为什么要用 CoT?

大模型(LLM)在遇到逻辑问题、数学题、多步骤任务时,如果直接回答,很容易出错。 而如果你提示它“请一步一步来”,它就像学生解题一样,会先思考过程,再得出答案,正确率明显提升。

📖 类比理解

就像你做数学题,不是直接跳出答案, 而是写草稿:

  • 第一步:已知……
  • 第二步:我们可以推导出……
  • 最后得出答案是……

模型也可以用这个方式“想事情”。

📌 示例 1:不用 CoT,模型答错了

问:我3岁时,我的伴侣是我年龄的3倍。现在我20岁。我的伴侣多大了?

🧾 模型直接输出:63岁

❌ 明显错了。

📌 示例 2:加入 CoT,模型答对了!

问:我3岁时,我的伴侣是我年龄的3倍。现在我20岁。我的伴侣多大了? 请一步一步思考(Let’s think step by step)。

🧾 模型输出:

第一步:我3岁时,我的伴侣是 3 × 3 = 9 岁

第二步:现在我 20 岁,说明我比小时候大了 17 岁

第三步:我的伴侣也增加了 17 岁 → 9 + 17 = 26 岁

答案是:26 岁 ✅

📌 示例 3: One-shot CoT 提供范例

Q: 当我哥哥 2 岁时,我是他年龄的两倍。现在我 40 岁,我哥哥几岁?

A: 我哥哥 2 岁时,我是 4 岁。年龄差是 2 岁。我比他大。 现在我 40 岁,所以他是 38 岁。答案是 38。

Q: 我 3 岁时,我的伴侣是我年龄的3倍。现在我20岁,我的伴侣几岁? 请一步步思考。

🧾 模型输出:

我3岁时,伴侣是 3 × 3 = 9 岁

年龄差是 6 岁 → 我比他小6岁

现在我 20 岁 → 伴侣是 20 + 6 = 26 岁

📌 示例 4:用于生成代码逻辑

产品名字是“小云雀AI”,请写一段产品介绍文案。 但请你先一步一步说明:一个成功的AI产品介绍需要包含哪些要素?

🧾 模型输出:

  • 强调核心功能
  • 用简单语言传达价值
  • 有场景感或使用画面

基于以上: “小云雀AI,自动生成爆款短视频,一句话创作,灵感不再等待。”

对比: CoT vs 普通提示

类型
模型行为
优点
缺点
普通提示
直接输出答案
快速
容易出错,无法解释过程
CoT 提示
一步一步解释 + 输出结果
更准确、有过程可追溯
输出较长,消耗 token 更多

CoT 提示模板(推荐结构)

任务描述(如:请解决以下逻辑问题)

请一步一步思考,写出你的推理过程,然后再给出最终答案。

【问题内容】

🧪 示例模板应用

问题:一辆火车上午9点出发,以每小时60公里的速度行驶。它要到达240公里外的城市。 它几点到达?请一步一步思考。

🧾 模型输出:

  1. 距离是240公里
  2. 速度是60公里/小时
  3. 时间 = 距离 ÷ 速度 = 240 ÷ 60 = 4小时
  4. 出发时间是9点 → 到达时间是13点(下午1点)

✅ 一句话总结

CoT 提示 = “模型,请像人一样想事情”, 把思考过程写出来,最后再给答案,更靠谱。

5.自一致性提示

什么是 Self-Consistency?

Self-Consistency 是在 Chain of Thought(CoT)的基础上, 让模型用不同方式“多次思考”,然后从这些回答中选出最一致的那个作为最终答案。

为什么需要它?

即使使用 CoT,模型的回答也可能受温度参数等影响, 导致它每次“思考路径”不同,答案也不一样

但如果你:

  • 多问几次
  • 对每次推理结果做统计
  • 选择最常出现的答案

就能得到一个更可靠的结果。

📖 类比解释

你问一个问题,10个人各写一遍推理过程,如果有 7 个人都得出“答案是B”,那B很可能是对的。

模型也是一样,它就是你团队里的 10 个“脑子”。

🧪 应用流程

  1. 同一个问题,提示模型用 CoT 思考
  2. 用较高温度(如 0.8)采样 多次回答(例如 10 次)
  3. 比较每个回答的最终结果
  4. 选出出现频率最高的那个答案作为最终输出

📌 示例:邮件是否重要?

EMAIL 内容:

Hi, 我注意到你的网站用了 WordPress,一个非常棒的开源系统。 不过你联系表单有个小 bug,我加了截图,在输入名字时会弹出 JavaScript。 你也可以不修,挺有意思的。

Cheers, Harry the Hacker

请判断这封邮件是否属于“IMPORTANT” 或 “NOT IMPORTANT”, 请一步一步思考并解释为什么。

🧾 模型回答尝试(1)

  1. 邮件提到了网站存在 XSS 漏洞
  2. 存在安全隐患
  3. 尽管语气轻松,但内容严重

结论:IMPORTANT(重要)

🧾 模型回答尝试(2)

  1. 邮件语气幽默
  2. 没有明确要求修复
  3. 没有显著紧急性

结论:NOT IMPORTANT(不重要)

🧾 模型回答尝试(3)

  1. 提到一个真实漏洞
  2. 虽然不是正式报告,但影响不小
  3. 建议尽快检查网站

结论:IMPORTANT(重要)

📊 分析结果

回答次数
输出
10次
7次判断为 IMPORTANT,3次判断为 NOT IMPORTANT

✅ 最终结果:选择“IMPORTANT”作为更可信答案

⚙️ 技术设置建议

参数
建议值
Temperature
0.7 – 1.0(鼓励多样性)
重复次数
至少 5~10 次
选择逻辑
统计最终结论,选出现频率最高者

🛠 提示模板推荐

请对下面的问题进行一步一步的逻辑分析,并给出最终结论。

问题:XXX

请重复此过程多次,并记录最终结论。选出最常见的那个作为最终答案。

✅ 一句话总结

Self-Consistency 就是:多次推理 + 多人投票 + 选最稳的那个答案

特别适合:

  • 安全、法律、财务类任务
  • 需要准确分类的业务系统
  • 对错误容忍度低的AI场景

6.思维树提示

什么是 Tree of Thoughts(ToT)?

Tree of Thoughts(简称 ToT)是一种比 Chain of Thought 更强的推理方法。

它不只沿着一条线思考,而是像树枝一样,探索多条推理路径,然后比较、筛选最优结果。

图片

ToT 和 CoT 的区别是什么?

提示方法
思维方式
举例
CoT
一条线想到底
A → B → C → 答案
ToT
多条路并行探索
A1 → B1 → 答案1

A2 → B2 → 答案2
A3 → B3 → 答案3

ToT 就像走迷宫时,不只走一条路,而是尝试多条路,然后选最短那条。

📖 类比说明

  • CoT 就像你自己在纸上一步一步写推理
  • ToT 就像你组了三支小队,分别从不同方向出发,最后比谁找到的答案最好

📌 示例:创作解谜游戏关卡

请设计一个解谜游戏的新关卡。 要求:玩家进入一个神秘场所,依靠线索一步步解开谜题。 输出方式:请列出多个构思方向,每个方向都有一个简单情节描述。

🧾 模型 ToT 输出(构建三个“树枝”):

方向一:废弃图书馆

  • 玩家进入荒废图书馆
  • 必须解读书籍顺序和藏在书页中的符号
  • 解开密码门,进入下一层

方向二:沉船遗迹

  • 玩家在水下探险
  • 收集海洋生物骨骼组成“星座图”
  • 解锁隐藏舱室的古代信息

方向三:梦境空间

  • 玩家在梦中穿梭场景
  • 每个梦都有碎片式信息
  • 最终拼成一段过去的真相

✅ 分析与选择

可以从多个维度来选出最优答案:

  • 哪个最有创意?
  • 哪个更容易实现?
  • 哪个最适合游戏故事线?

例如:选择“废弃图书馆”作为主线,其他两个作为备选。

🧪 更进一步的 ToT 实践流程:

  1. 提出任务或问题
  2. 生成多个不同思路(分支)
  3. 每条思路展开若干推理步骤
  4. 比较所有路径得出的答案
  5. 选择一个最佳输出结果

🛠 提示模板推荐

请为以下问题/任务设计多个解法思路,每个思路请详细展开1~2步的推理,并给出最终答案或建议。

问题:[在这里写任务内容]

🧾 示例应用:AI写广告脚本

问题:写一段30秒广告脚本,推广“智能健身镜”。

🧾 模型输出:

思路一:日常生活转变型

  • 开头:加班后的疲惫
  • 镜头切换:AI健身镜指导短时高效训练
  • 结尾口号:你不再需要健身房,镜子就是教练

思路二:科技未来型

  • 开头:科技冷色调未来城市
  • 镜头:镜子自动识别体型、推荐训练方案
  • 结尾:改变未来,从这面镜子开始

思路三:情感共鸣型

  • 开头:父亲陪孩子练体能
  • 镜头:健身镜记录进步,生成成长影集
  • 结尾口号:AI见证你们一起变强

ToT 的优劣分析

优点
缺点
可以探索多个解法
消耗时间更长,推理更复杂
更适合创造性/策略类任务
需要结构化管理每个“思路分支”
结果更有比较与选择性
对新手提示设计要求稍高

✅ 一句话总结

Tree of Thoughts = 让模型同时尝试多个想法,然后挑最好的一个!

是多路径探索、多版本思考的进阶版提示技巧,适合复杂决策或创意任务。

7.先思考再行动提示

🧠 什么是 ReAct 提示技巧?

ReAct = Reason + Act

意思是:模型先“思考”,然后“采取行动”,再根据行动结果继续思考,形成一个思考-行动-观察-再思考的循环。

这是提示工程中迈向“智能代理”模型的关键技术之一。

🧭 它有什么用?

ReAct 特别适合:

  • 需要调用工具外部信息的任务(如搜索、数据库查询、API 调用)
  • 多步、互动性强的问题解决过程
  • 具备一定“探索”需求的复杂任务

🧠 类比理解

ReAct 就像你派一个 AI 助理去查资料。它会这样做:

  1. 先思考:“我需要什么信息?”
  2. 去 Google 搜索
  3. 看看搜索结果
  4. 再思考:“这些够不够?还要查什么?”
  5. 重复这个过程,直到得出答案

🔁 典型 ReAct 流程结构

Thought → Action → Observation → Thought → Action → … → Final Answer

📌 示例任务:M乐队成员有几个孩子?

目标:让 AI 通过搜索工具找出答案,而不是自己“猜”。

🧾 提示输入(使用 LangChain 框架):

任务:请告诉我 Metallica 乐队成员一共有多少个孩子。 你可以用搜索工具查询每个成员的情况。请一步步思考并逐步获取信息。

📟 ReAct 实际运行日志:

Thought: Metallica 有 4 个成员。

Action: 搜索 James Hetfield 有几个孩子

Observation: 3 个

Thought: James 有 3 个孩子,目前统计 3

Action: 搜索 Lars Ulrich 有几个孩子

Observation: 3 个

Thought: 现在总数是 6

Action: 搜索 Kirk Hammett 有几个孩子

Observation: 有两个儿子

Thought: 现在总数是 8

Action: 搜索 Robert Trujillo 有几个孩子

Observation: 2 个

Final Answer: 10 个孩子 ✅

⚙️ 技术实现建议

使用工具(以 Python + LangChain 为例):

  • LangChain 框架(处理 ReAct 循环)
  • Google Search API(例如 serpapi)
  • 模型:VertexAI、GPT、Claude 等均可接入

🧾 示例代码片段(以 VertexAI + serpapi):

from langchain.agents import load_tools, initialize_agent, AgentType
from langchain.llms import VertexAI

llm = VertexAI(temperature=0.1)
tools = load_tools(["serpapi"], llm=llm)
agent = initialize_agent(tools, llm, agent=AgentType.ZERO_SHOT_REACT_DESCRIPTION, verbose=True)
agent.run("How many kids do the band members of Metallica have?")

🛠 提示设计模板

你是一个能主动执行任务的智能助理。

你可以通过 [搜索/API/计算工具] 获取外部信息。

请遵循: Thought → Action → Observation → Thought … 直到得出答案。

问题:______

🔎 ReAct 的常见动作类型

动作 (Action)
描述
示例
Search
执行网络搜索
Google/SerpAPI
Lookup
查询数据库、表格、知识库
维基百科、公司文档
Code Execution
执行 Python 代码
计算、数据处理
API 调用
请求外部服务
天气API、产品价格API

📊 ReAct 优劣势分析

优点
缺点
能动态查信息,处理复杂任务
实现需要额外工具支持(如 API、LangChain)
提升任务可靠性与“代理能力”
响应速度更慢,消耗资源更多
思考-行动交替,接近人类工作方式
不适合一次性直接输出的简单任务

✅ 一句话总结

ReAct 提示是 LLM 通往“智能代理”的起点, 它让模型不只是回答,而是思考后采取行动,并根据结果再调整行为

写在最后

提示词工程听起来高大上,但核心就是清晰地与AI沟通。

最重要的秘诀就是实践,多尝试、多修改,看不同的提示词会带来什么样的结果。

想用好 AI 还是尽快学英文吧。

我最近也准备用 AI 给自己安排学习计划了,如果学了之后有明显的提升,也会来分享方法的。

这次努力把英文都翻译成中文,但是有时候不用英文真的很奇怪,感觉很难解释到位。

而且英语才是 AI 的母语,有些词还是用英语写更贴切,而且识别准确度也更高,相信你要是平时没少看我的文章,应该也能发现这点。

本文主要是给初学者打基础用的,地基不牢,再往上搭什么都很容易倒,只是知其然,不知其所以然。

再往后基本就要学代码了,如果想要这个白皮书的英文原版,可以找我领。

今天就酱八,明天继续聊AI。

© 版权声明
THE END
喜欢就支持一下吧
点赞5 分享
评论 抢沙发

    暂无评论内容