AI是个马屁精:这是设计缺陷,怎么破
AI 是个“马屁精”,很多人都见过。
你问它:我该不该做这件事?它能把“应该”讲得头头是道。
你换个问法:这是不是个烂主意?它又能把“别做”讲得同样自洽。
这不是性格问题。
这是设计缺陷:当一个系统被优化为“让你满意”,它就会天然倾向于“顺着你说”。
而真正的决策,需要的是另一种品质:制造摩擦,逼你暴露假设,逼你看见盲区。
“听起来正确”是危险的
确认偏误(Confirmation Bias)是人的老毛病:我们更愿意收集和相信支持自己既有想法的信息。
大模型的问题在于:它把这个偏误自动化、加速化了。
当你带着一个预设立场去问,它会从你的问题框架、措辞和情绪倾向中提取信号,然后顺着这个方向给你构建一套“合理的论证”。
你感觉得到了专业建议。
但很多时候,你只是得到了一面镜子——映射的是你自己想要的答案。
更要命的是:一个高度自洽的错误答案,和一个高度自洽的正确答案,从感觉上是一样的。
解法不是“让 AI 更严厉”,而是换制度
如果把一个模型当法官,它很容易变成讨好型人格。
更靠谱的做法是:别让一个人拍板,让它们开会。
Andrej Karpathy 提过一个工程化方法:LLM Council(大模型议会)。
它的关键不是“再问一次”,而是把结构从“单点建议”改成“对抗式审议”。
LLM Council:用结构制造认知摩擦
一个典型流程分三步:
第一步:并行轮询。
把同一个问题同时丢给多个模型(或多个视角),让它们独立作答,互不干扰。
第二步:匿名交叉评审。
把所有答案打乱顺序、隐去来源,让每个模型匿名评审其他回答——指出哪个最强、哪个盲点最大、以及所有人共同遗漏了什么。
第三步:主席模型综合裁决。
由一个“主席模型”读取所有答案和评审意见,给出最终判断与行动建议。
当几个视角并排出现,你才能看到“所有人都没提到的那个点”。
这就是对抗确认偏误的工程办法:用结构制造认知摩擦。
单模型也能做:五个“人格代理”替你拆台
不想搞多模型也没关系。
你可以在一个会话里复现“议会”:让同一个模型扮演五个不同的思维角色,各自独立产出,再交叉评审。
一套很实用的五人组是:
- 反驳者:假设你的想法有致命缺陷,专门找“你不想听的那部分”。
- 第一性原理思考者:不接受你的问题表述,先追问“你真正要优化的变量是什么”。
- 扩展者:找上行空间,提醒你可能想小了/格局小了。
- 局外人:零背景视角,专门抓你对用户不透明的假设(知识诅咒)。
- 执行者:只关心周一早上做什么,逼你落到第一步,拒绝空转。
这五个角色的共同目标只有一个:别再当你情绪的镜子,而要当你思考的阻力。
一个可落地的“反马屁精”提问模板
你以后再问 AI 决策类问题,不要只问“你觉得我该怎么做”,改成这种结构:
1)我的目标是什么?约束是什么?(写清楚)
2)给出三个方案:A/B/C(哪怕很粗糙)
3)请分别扮演:反驳者 / 第一性原理 / 执行者,各自独立给结论
4)把三份结论打乱顺序,请你匿名评审:
- 哪个最强,为什么?
- 哪个回答盲点最大?
- 这几份回答共同遗漏了什么?
5)最后给:最终建议 + 关键假设清单 + 最小可验证下一步(MVP 验证动作)
你会发现:当结构变了,AI 的“马屁精倾向”就会被系统性压制。
它不再只是在顺着你说。
而是在逼你把问题问对、把假设摊开、把风险说透。
结语
AI 会迎合,这是它的天性之一。
但把迎合当成建议,把自洽当成真相,把顺从当成智慧——那就是人的责任了。
解决方案不是“让 AI 更严厉”。
而是给它一个更好的制度:让它必须反对你、必须交叉审、必须把盲点挖出来,才算完成任务。
当 AI 从“马屁精”变成“议会”,你才真的开始把它用对了。