一英里宽,一英尺深:ChatGPT 的真实使用困境
一句结论:不是「没用」,而是「浅用」成了默认
ChatGPT 当然有用。
但更真实的处境是:它被大量人“尝试过”,却很少人“深度用起来”。
这不是用户不够聪明,也不是模型不够强。
它更像一种结构性困境:能力增长太快,工作流改造太慢;入口足够低,闭环却不够紧。
于是出现了一个典型现象:一英里宽,一英尺深。
数据背后的尴尬:交互很多,稳定习惯很少
我们很容易被“热度”误导。
下载量、注册量、媒体曝光、朋友圈截图……这些都更像是一次社会级别的技术围观。
真正有区分度的指标是:一个普通知识工作者,会不会把它变成每天都离不开的「工作台」。
一些公开研究与行业观察指向同一件事:
- 大量用户的使用频率并不高;
- 高价值使用(把模型嵌入工作流、形成可复用模板与自动化)的占比更低;
- “问两句、生成一段、改一改”是主流,而不是“持续迭代一个可运行系统”。
当使用停留在“即时回答”层面时,模型越强,边际收益反而越快见顶。
真正的摩擦点:从「问答」到「交付」之间隔着一条河
深用 ChatGPT 的人,通常不是因为更会提问。
而是因为他们把 ChatGPT 放进了一个可以交付的闭环里。
闭环意味着:
- 有明确输入(数据、上下文、约束)
- 有可验证输出(文档、代码、决策、页面、邮件)
- 有复用机制(模板、提示词库、脚本、工作流)
- 有反馈与迭代(更正、版本、质量门槛)
但对绝大多数人来说,日常工作的真实形态是碎片化的:
会议、消息、临时任务、跨系统的复制粘贴。
在这样的工作场景里,ChatGPT 常常变成“一个聪明的搜索框”。
聪明,但不在流程里。
于是你会看到一种典型体验:
- 你确实拿到了一个不错的回答;
- 但你仍然要把它搬运到你的文档、你的表格、你的 Jira、你的邮件里;
- 最后再靠你自己完成“整合、判断、负责”。
从问答到交付,这条河没人替你过。
深用的门槛其实是「系统改造」,而不是「学习成本」
很多人把问题归结为“提示词不会写”。
这当然有影响,但不是主因。
主因是:深用意味着你要重构自己的工作系统。
你需要把隐性的经验变成显性的规则:
- 什么算好?什么算不行?
- 你的格式标准是什么?
- 你如何验收?
- 你如何让下一次更快?
这听起来像“流程化”。
但它并不是传统意义上僵硬的流程化,而是一种“把思考外置”的工程化。
当你不愿意(或没时间)做这件事时,ChatGPT 最终就只能停留在“帮我写两句/帮我改一改”的层面。
另一个现实:模型越强,替代的不是人,而是「软件的确定性」
我们习惯把软件看作确定性的机器:
点这个按钮得到那个结果。
而大模型带来的,是一种“即兴能力”:
你描述意图,它给你一版可能的产物。
这会让一部分传统软件显得笨重。
但与此同时,也带来一个新的问题:
即兴产物的质量是不稳定的。
于是,真正的门槛从“会不会用软件”,变成了“能不能定义标准并验收”。
这对组织尤其致命:
个人可以靠直觉凑合。
组织不能。
为什么「一英里宽」会持续存在
因为它符合人性,也符合组织的激励。
- 试用成本极低:问一句就有答案;
- 展示成本极低:截个图就能汇报“我们在用 AI”;
- 深用成本很高:要改流程、要做数据治理、要定义验收、要承担责任。
所以短期内,“浅用”会继续成为主流。
而真正产生生产力跃迁的,会集中在少数人/少数团队里。
怎么走向「一英尺深」以上:三个可执行的动作
不要从“我该学什么提示词”开始。
从工作里最真实、最重复、最可验收的一小块开始。
选一个高频交付件
比如:周报、会议纪要、对外邮件、投标文本、PRD、代码评审、客服回复。
它必须满足两点:
- 你每周都要做;
- 你能清楚说出“什么叫好”。
把验收标准写下来
写成一个 checklist。
比如会议纪要:
- 是否包含结论(不是流水账)
- 是否列出待办、负责人、截止时间
- 是否标出分歧与待定事项
标准一旦明确,模型输出质量会立刻上一个台阶。
做一个可复用模板
把你的输入结构化。
把你的输出格式固定。
把你每次都会强调的约束写进模板。
当你能把“这次做出来了”变成“下次更快做出来”,你就越过了那条河。
结尾:ChatGPT 的问题不是能力,而是「嵌入」
ChatGPT 的能力还会继续增长。
但生产力提升不会自动发生。
它取决于你是否愿意把它从“聪明的问答”嵌入到“可交付的系统”。
如果不嵌入,它就会一直一英里宽。
如果嵌入成功,它才可能变成一英里深。