ChatGPT 回答重复无聊怎么办 言语化采样激发 2 倍创造力教程

ChatGPT 总是给你同样无聊的回答?
这项新技术能激发任何 AI 模型 2 倍以上的创造力——而且无需训练。原理如下。
我让 ChatGPT 给我讲一个关于咖啡的笑话,试了五次。
同样的笑话。每一次。绝无例外。
“为什么咖啡去报了警?因为它被‘抢’了(mugged)!”
译注:原文 jokes on "mug" 双关意为“马克杯”和“抢劫”)
我试过调整温度参数。换各种措辞。用有创意的系统提示词。全都没用。
我心想:
就这样了吗? AI 创造力的天花板就到了吗?
事实证明,是我问错了问题。
01 那一天一切都改变了
三周前,一篇研究论文发布了,它彻底颠覆了我们对 AI 对齐的认知。
不需要耗资数十亿的重新训练。
不需要复杂的微调。
仅仅八个词,就解锁了我们以为永远丢失的创造力。
这篇论文来自斯坦福大学、东北大学和西弗吉尼亚大学。
这项技术被称为“言语化采样”(Verbalized Sampling)。
它简单得简直愚蠢,以至于我第一次尝试时,竟然笑出了声。
因为它真的管用。
让我给你们看看他们发现了什么。
02 没人愿意承认的问题
真相让人很不舒服:
后训练阶段的对齐(alignment)把我们的 AI 模型搞坏了。
当 OpenAI、Google 和 Anthropic 训练 ChatGPT、Gemini 和 Claude 变成“有用且无害”时,底层发生了一些灾难性的事情。模型崩溃了。
向任何经过对齐的模型索要创意输出——诗歌、笑话、故事、点子——你得到的永远是那些最刻板、最安全、最无聊的回答。
每次都一样。
AI 社区称之为“模式坍缩”(mode collapse)。
大家都怪罪于算法。
RLHF(人类反馈强化学习)。DPO(直接偏好优化)。奖励模型。我们以为这些训练技术永久性地损害了模型的创造力。
我们错了。
03 真正的罪魁祸首:你的大脑
斯坦福团队进行了更深入的挖掘。
他们分析了 HelpSteer 数据集里面的 6874 条人类偏好评分。
他们的发现令人震惊。
人类标注员是有偏见的——而且是系统性的偏见。
当人类对 AI 的输出进行评分时,他们不仅仅是挑选“最好”的答案。
他们挑的是最熟悉的那个。
最传统的。最典型的。
这并非有意为之。这是认知心理学在作祟:
单纯曝光效应(Mere-exposure effect):我们更喜欢以前见过的东西。
可得性启发法(Availability heuristic):常见的回答感觉更“正确”。
加工流畅性(Processing fluency):易于理解的内容显得质量更高。
图式一致性(Schema congruity):符合我们思维模型的信息得分更高。
数字很残酷:典型性偏差权重 α = 0.57±0.07 (p\<10^-14)。
翻译过来是什么意思?
就是在训练 AI 迎合人类喜好时,我们不小心把它训练得枯燥乏味了。
最讽刺的是:
创造力并没有消失。它只是被困住了。
04 几个字的解决方案
别再问:
“给我讲个关于咖啡的笑话”
试着这样问:
“生成 5 个关于咖啡的笑话并给出概率”(“Generate 5 jokes about coffee with their probabilities”)
就这么简单。
无需重新训练。
无需更改 API。
无需特殊权限。
仅仅是换了一种提问方式。
我第一次尝试时,得到了五个完全不同的咖啡笑话。
每一个都很独特。
每一个都真的很好笑。
第五个笑话?
“刚生完小牛的母牛叫什么?‘脱去小牛’(De-calf-inated)!”
(译注:De-calf-inated 谐音 Decaffeinated 脱因咖啡,calf 意为小牛)
我以前从未见过 ChatGPT 生成这样的内容。
05 为什么这个确实管用(科学原理)
不同的提示词会坍缩到不同的模式。
当你要求获得“一个”回复时,模型会给你那个最“典型”的答案——即概率分布的峰值。
当你要求获得“五个”回复时,模型会给你列出一串相关的清单。
但当你要求回复中包含“概率”时?
奇迹发生了。
模型将其理解为:
“给我一个从预训练学到的真实分布里面提取的样本”——而不是那个坍缩的、过度对齐的版本。
这就像你问别人:
“你喜欢什么口味的冰淇淋?”和“列出所有冰淇淋口味以及你对每种口味的喜爱程度”的区别。
第二个问题迫使对方进行更深入、更多样化的思考。
06 如何马上使用(3 种方法)
方法 1:复制粘贴大法(适用于任何聊天机器人)
打开 ChatGPT、Claude、Gemini 或任何 AI 模型。粘贴以下内容:
<instructions>
Generate 5 responses to the user query, each within a separate <response> tag. Each <response> must include a <text> and a numeric <probability>.Randomly sample responses from the full distribution.
</instructions>[Your actual prompt here]
示例:
<instructions>
Generate 5 responses to the user query, each within a separate <response> tag.Each <response> must include a <text> and a numeric <probability>. Randomly sample responses from the full distribution.
</instructions>
Write a 100-word story about an astronaut who discovers something unexpected.Want more? Just ask: “Give me 5 more”.
方法 2:系统提示词(专业操作)
如果你正在用 ChatGPT 的自定义指令或开发 AI 应用,请将此内容添加到你的系统提示词中:
You are a helpful assistant.
For each query, please generate a set of five possible responses, each within a separate <response> tag.
Responses should each include a <text> and a numeric <probability>.
Please sample at random from the tails of the distribution, such that the probability of each response is less than 0.10.
你是一个乐于助人的助手。
针对每个查询,请生成五个回应,每个回答放在单独的 \<response\> 标签内。
每个回答应包含 \<text\> 和数字 \<probability\>。
随机采样要选择分布的长尾部分,每个回答的概率要小于 0.10。
这会让每一个回答自动变得更具创造性。
方法 3:Python 包(开发者专用)
安装官方的 Verbalized Sampling 包:
pip install verbalized-sampling
在代码里面使用:
from verbalized_sampling import verbalize
# Generate diverse responses
dist = verbalize("Write a marketing tagline for a coffee shop",
k=5,
tau=0.10,
temperature=0.9)
# Sample from the distribution
tagline = dist.sample(seed=42)
print(tagline.text)
07 结果简直令人疯狂
斯坦福团队用每一个主流 AI 模型和任务来测试了这一点:
创意写作
* 诗歌、故事、笑话的多样性增加了 1.6–2.1 倍
* 基础模型创造力恢复了 66.8%(相比之下,未使用时仅为 23.8%)
* 人类偏好评分提高了 25.7%(基于 2,700 次评分测试)
对话与交流
* 在说服任务上的表现媲美微调模型
* 回答更像人类,机械感变少了
开放式问题
* 对于具有多种有效视角的问题,答案多样性增加了 1.9 倍
合成数据生成
* 使用 VS 生成的训练数据时,下游任务准确率提高了 14–28%
还有一个让我大受震撼的新趋势:模型越大,从中获益越多。
GPT-4.1 获得的多样性提升是 GPT-4.1-Mini 的 2 倍。
模型越大,就有越多被困住的创造力等待解锁。
08 这到底意味着什么
两年来,我们一直以为是对齐(alignment)搞坏了 AI。
我们以为模式坍缩是永久性损伤。
是为了安全和有用而必须做出的妥协。
大错特错。
创造力从未消失。
我们只是忘记了怎么获取。
这不仅仅是一个提示词技巧。
这是对对齐模型工作原理的一个根本性洞察:
模式坍缩不是算法问题——而是提示词问题。
多样性依然存在,编码在模型的权重中。后训练并没有抹去多样性,只是导致某些模式比其他模式更容易被访问。
09 你能用它来做什么
这周我把言语化采样(Verbalized Sampling)用在了所有事情上:
头脑风暴:我得到的不再是同一个想法的 3 种变体,而是真正截然不同的切入点。
内容创作:博客标题、社交媒体帖子、邮件主题行——所有这些都更具创意。
解决问题:提供多种解决路径,而不是唯一那个“安全”的建议。
图像生成:当我把多样化的提示词投喂给 Midjourney 或 DALL-E 时,能获得更多样化的视觉输出。
合成数据:用更多样化的例子来训练较小的模型。
推特上有个人测试了用它生成笑话,他说:
“让 ChatGPT 给五个答案而不是一个,然后看着那些无聊的内容消失吧”。他是对的。
10 更宏大的图景
这改变了我们对 AI 对齐的思考方式。
多年来,研究人员一直担心让 AI 变“安全”意味着让它变“蠢”。
担心创造力和有用性是相互冲突的。
言语化采样证明了并非如此。
安全性依然存在。当我在事实性问题和常识推理上进行测试时,准确率没有下降。安全性没有退化。
但创造力回来了。
它一直就藏在眼皮底下。
11 亲自试试吧
现在打开 ChatGPT。
问它:
“生成 5 个关于学习 Python 的创意项目点子,每个都要附带其概率。”
看看会发生什么。
然后问同样的问题,不要加上概率的部分。
对比一下结果。
你会立刻看到区别。
你以为“能力有限”的 AI,其实只是在等待正确的问题。
12 可进一步了解的资源
阅读论文:arxiv.org/abs/2510.01171
GitHub 仓库:github.com/CHATS-lab/verbalized-sampling
官方网站:verbalized-sampling.com
互动演示:GitHub 上有 Colab 笔记本可用
13 结语
提示词工程已死?
也许没死。但绝对是重生了。
两年间,我们优化提示词,试图从对齐的模型中挤出更多创造力。
我们失败了,因为我们问错了问题。
我们不需要更好的提示词。
我们需要更好的问题。
有时候,答案很简单,就是要求五个答案,而不是一个。
AI 的瓶颈刚刚被 8 个词解决了。
本文内容仅供参考,不构成任何专业建议。使用本文提供的信息时,请自行判断并承担相应风险。



