引言
AI 系统给出的建议越来越好,这本身并不奇怪。真正的问题是,企业能否把 AI 预处理的建议和最终由人作出的决定之间的边界画清楚。
大多数问题并不是因为 AI 会犯错,而是因为组织没有明确什么时候它可以决策,什么时候它只能提出建议。
为什么这条边界如此关键?
因为企业不是按模型运转的,而是按责任体系运转的。
模型可以提供:
- 备选方案,
- 总结,
- 风险提示,
- 优先级建议。
但只要涉及:
- 财务后果,
- 客户权利或品牌声誉,
- 法律或监管影响,
- 重大的组织后果,
责任就必须继续由人承担。
因此,AI 治理最早要做的事情之一,就是建立决策分类。
三类决策
1. AI 只做准备
AI 收集、整理、排序信息,但决定由人来做。
2. AI 提建议,人来批准
这里可以出现具体建议,但所有输出都必须经过人工 review 才能执行。
3. AI 自动执行
这只适合低风险、规则清楚、可回测的场景,比如内部工单分类或知识库推荐。
很多企业太早就想跳到第三类。实际上,成熟 use case 往往会在第二类停留很久。
怎样才能设计得更合理?
按风险来划分
不是所有流程都一样。内部 meeting summary 和发给客户的报价,显然不是一个等级。
按可回退性来划分
如果结果容易修正或撤回,就能接受更高程度的自动化。
按可解释性来划分
如果流程 owner 无法理解输出背后的逻辑,就需要更严格的控制。
按数据质量来划分
输入很弱时,负责的自动化几乎不可能成立。
一个实用的 decision matrix
可以把每个 use case 都放到四个问题里判断:
- 错误成本有多高?
- 结果多容易撤回?
- 决策逻辑有多标准化?
- 是否涉及法律或业务责任?
如果错误成本高、可回退性低,那么决定就必须保留给人。
从管理视角看,这意味着什么?
管理者常问的是:“我们能相信它吗?” 更好的问题是: 在什么条件下,我们可以相信它?
信任不是抽象属性,而是流程相关、控制相关、测量相关的。
所以,好的 AI 治理不会笼统地“允许”或“禁止”,而是会把不同的决策模式分配给不同的流程。
结语
AI 并不会自动接管决策。是设计糟糕的组织过早把决策交给了它。
成功的 AI 混合企业之所以不同,是因为它清楚知道: 哪里由机器辅助,哪里由人来决定,以及二者如何负责任地衔接。