AI监控揭露的”25万亿日元”治理缺陷
美国政府正推进使用AI(人工智能)监控补贴欺诈申领的计划,涉及金额高达约25万亿日元(约合1.08万亿元人民币)的”不当”支付。日本经济新闻的这则报道,乍看像是”用技术防止欺诈的先进举措”。但从治理设计者的视角观察,看到的却是截然不同的景象——一个更根本的问题:”在试图用技术解决之前,基础设计本身就已存在缺陷”。
对于中小企业经营者而言,补贴或补助金的申请应是熟悉的课题。既要忙于申请时的文书工作,获批后的用途报告也是负担。更何况25万亿日元的规模超乎想象。但无论规模大小,其中潜藏的治理本质问题是共通的。那就是在引入”监控结果(欺诈)的AI”之前,为何会设计出”容易滋生欺诈的申请-审批流程”这一根源性问题。
“监控AI化”所掩盖的根本设计失误
让我们详细审视美国的案例。据报道,AI通过学习历史欺诈模式,将作为检测可疑申请的”看守者”发挥作用。确实,这可能比人工检查海量申请更高效。但这里存在一个重大陷阱:AI事后监控越强化,组织越容易回避”流程本身的设计缺陷”。
治理的本质不在于”检测违规”,而在于”从一开始就设计出不易违规的机制”。以补贴申请为例,优先构建申请表单设计、审批权限分散、用途报告简化与自动化等使欺诈在”物理层面难以发生”的流程,才是关键。AI监控只是在这种初级预防措施不足时,采取的二级、三级对策。
中小企业”申请流程”中的盲点
这与中小企业的日常直接相关。例如,试想员工的费用报销流程:
- 案例A(设计缺陷+监控强化):制定复杂难懂的费用规定。收据提交方式也五花八门。但事后由财务人员逐一检查收据,指出可疑之处。这类似于”人力AI”式的监控。
- 案例B(流程设计优化):费用申请数字化,按类别自动设置审批流。收据用手机拍摄即时上传。规定在申请界面实时显示。从一开始就内置了不易发生欺诈的”物理约束”。
案例A与美国政府的AI监控思路相同。案例B才是治理应有的”顶层设计”。问题在于,许多组织往往因成本或麻烦而选择案例A的道路。
将AI作为”执行装置”而非”决策装置”融入治理
那么,应如何将AI融入治理?答案在于将AI定位为”确保优秀流程得以可靠执行的装置”,而非”监控者”。
以前述费用报销为例,AI的作用不是”寻找可疑收据”,而应是以下功能:
- 根据申请人输入内容,自动推荐合适的费用类别。
- 基于历史审批模式,自动分配最优审批路径。
- 与项目预算比对,在可能超支时提前预警。
如此,将AI嵌入流程”内部”,减少人为判断失误和繁琐操作,从而压缩欺诈可能渗透的缝隙。这正是”1~99风险设计”的思路。即使无法将风险降为零,但设计出大幅降低发生概率、限制发生影响的机制是可行的。
实践步骤:梳理企业内”可AI化流程”
为中小企业提供三个明日即可启动的具体行动:
1. 列出”重复性判断”清单
首先,梳理公司内部频繁进行的例行判断:费用审批、带薪休假申请、客户投诉初步应对、采购订单等。将这些流程中,负责人每次”依据什么标准判断”明确表述出来。这将成为AI学习”规则”的原型。
2. 将流程分解为”输入·处理·输出”
以采购订单为例,”输入”是采购申请单,”处理”是预算核对与审批人分配,”输出”是订单创建与发送。重点关注其中最容易发生人为失误或延迟的”处理”环节。探讨能否在此引入简单的自动化(RPA)或AI辅助。
3. 向专家咨询”成立条件”而非”可否”
向法务或税务专家咨询AI工具引入时,不应问”这在法律上可行吗?”这只会得到”是或否”的答案。而应改为咨询”成立条件”:”我们希望自动化此流程以提高效率。在数据处理和记录方面,法律和税务上有哪些必须遵守的要点?”专家虽无法将风险降为零,但能在可接受的风险水平(1~99)内,提出使方案成立的条件。
从”监控”到”设计”:提升治理视角
美国政府的AI监控计划虽规模巨大,却是治理思维倾向于”事后监控”的典型案例。这与组织越大,越难改变现有繁琐流程,转而试图用监控弥补的倾向相符。
但中小企业拥有巨大优势:规模较小,意味着从零重新设计流程本身的”变更成本”相对较低。在大企业投入巨资引入AI监控系统时,中小企业可抢先构建活用AI的”从一开始就智能的流程”。
关键在于不被AI技术所左右。AI只是更可靠、更高效地执行优秀治理设计的”装置”之一。在此之前应做的,是为实现企业”想从事的事业”,明确表述并设计出最优的决策与执行流程。
用AI监控25万亿日元欺诈的新闻,向我们提出了这样的质问:”在问题发生前,贵公司究竟投入了多少精力设计不易出问题的机制,而非等问题发生后再强化监控?”直面这一问题,正是技术时代实践性治理的第一步。


评论