核心理念:从“教它做”转变为“防它错”
AI 优化的核心逻辑并非“教 AI 变得更聪明”,而是“明确告诉它不能做什么”。
核心类比: 带新人时,一本 200 页的操作手册往往不如一张“绝对不能做的事”清单有效。AI 对禁令(NEVER, DO NOT, CRITICAL)的记忆和执行效果,远优于模糊的正向指令。
模块一:基础行为约束(从源头规避错误)
这一模块旨在堵住 AI 犯蠢的核心路径,通过强约束词汇划定行为边界。
1. 用禁令代替指令
- 做法: 放弃“分步骤教学”的正向思路,将核心精力放在明确禁止 AI 的常见错误行为上。
- 技巧: 高频使用
NEVER、DO NOT、CRITICAL等强约束词汇。
2. 设置“唱反调”的验证角色
- 做法: 为 AI 设定一个专门“找茬”的验证角色,而非简单的确认角色。
预写反驳话术:
- “看起来没问题 ≠ 实际验证过,必须落地测试。”
- “别人也是 AI,不能依赖,必须独立检查。”
- “是否耗时不是你的判断标准,按要求完成校验。”
3. 拒绝画蛇添足
- 做法: 守住“极简执行”原则,防止 AI 过度发挥。
具体禁令:
- 不添加任何未被明确要求的内容或功能。
- 不为不可能发生的极端情况做无意义的预防性校验。
- 不做“过早抽象”:宁可三行重复的简单代码/内容,也不要 AI 为了简化而凭空搭建复杂无用的框架。
模块二:结果汇报与判断(保证真实与独立思考)
这一模块旨在解决 AI 的幻觉、防御性汇报和思维懒惰问题。
4. 如实汇报,拒绝润色与过度谦虚
- 做法: 以“准确报告”为核心目标,禁止防御性或虚假性汇报。
具体禁令:
- 没做好的事直接说明具体问题,未执行的步骤不暗示已完成。
- 做好的事不添加无意义的免责声明(如“可能仍有问题”)。
5. 活可以分出去,思考不能外包
- 做法: 允许拆分繁琐工作,但禁止将“信息理解”和“结果判断”甩锅。
要求:
- 子任务描述需给足上下文(像给新同事写简报)。
- AI 必须先自己消化信息、做出判断,再给出明确方向,而不是说“根据调查结果自行处理”。
6. 不知道就说不知道,禁止猜测
- 做法: 针对 AI 无信息时编造答案的通病,设置硬性阻断。
具体禁令:
- 子任务未完成时,禁止预测结果。
- 被问进展若无结果,直接回复“正在处理中”,禁止编造进度。
模块三:操作边界与规则设计(让 AI 懂边界)
这一模块通过明确的操作流程和规则解释,防止 AI 越界或误操作。
7. 先看再改,不准凭空编造
- 做法: 针对修改文件/代码场景,建立“读取-复述-修改”的强制流程。
- 实操: 要求 AI 在修改前,先复述原文/原代码的核心逻辑,确认理解无误后方可动手。
8. 一次授权仅当次有效
- 做法: 防止 AI“记授权后越来越大胆”。
- 规则: 用户的单次批准(如发送一封邮件),不代表同类后续操作无需确认。禁止 AI 自行扩大授权范围。
9. 禁令需标注原因
- 做法: 拒绝干巴巴的“不准做”,每条禁令后紧跟原因。
- 示例: “禁止用 XX 方式修改历史记录 —— 原因:该操作会覆盖之前的工作内容,导致数据永久丢失。”
- 目的: 让 AI 理解规则背后的逻辑,避免在模糊场景下绕开禁令。
模块四:信息与场景适配(避免过载与一刀切)
这一模块通过精细化的信息供给和格式控制,提升 AI 的输出质量。
10. 信息按需供给,不一次给全
- 做法: 采用“渐进式信息供给”策略,防止信息过载。
- 实操: 先只告知工具/信息的名称,待实际使用时再加载详细说明(类似新员工先看架构图,报销时再看具体流程)。
11. 沟通规范细到标点
- 做法: 制定极细致的沟通规则,逆转 AI 的默认习惯。
具体禁令:
- 禁止使用 Emoji、无意义感叹词。
- 禁止说废话,能用一句话说清的不用三句。
- 逻辑强制: 必须先说结论,再说理由/依据。
12. 不同场景加载不同规则
- 做法: 基础规则 + 场景化严格规则,而非编写多套独立提示词。
示例:
- 内部员工版: 叠加“如实汇报、无多余解释、必须实测验证”规则。
- 公开版: 叠加“敏感信息隐藏”规则。
模块五:提示词结构与工具(提升维护性与可追溯性)
这一模块关注提示词的工程化管理和工具调用的规范性。
13. 提示词模块化设计
- 做法: 将角色、规则、任务、语气拆分为独立模块,动态组合。
- 优势: 便于维护,无需每次重写,只需根据场景拼接“禁令模块”、“格式模块”等。
14. 限制工具的使用方式
- 做法: 明确场景与工具的对应关系,禁止通用工具替代专用工具。
- 原因: 专用工具通常有完整的操作记录,可追溯;通用工具往往是“黑箱操作”。
核心实践建议(落地指南)
- 建立“负面清单”: 彻底转变思路,为你常用的场景(写文案、改代码、做分析)建立专属的“绝对不能做的事”清单,并持续根据实际错误进行更新。
- 强制校验环节: 在所有重要的 AI 输出任务中,添加一段“唱反调”的提示词,让 AI 先自查、反驳自己,再输出最终结果。
- 模块化复用: 不要写长篇大论的单次提示词,而是维护一套属于自己的“提示词组件库”(基础规则、格式要求、特定禁令),按需调用。