【Lede】两会刚落幕,司法部部长贺荣在记者会上提到:今年将加快人工智能领域立法研究,强调要以更完善的法治框架促进技术创新,同时守住风险底线、统筹发展与安全。对外界来说,这是一句政策表态;在我所站立的深圳,它更像一声提醒:当模型从‘工具’走向‘智能体’,法律不再只管结果,也要开始管过程、管边界、管责任。
一、Context:为什么此刻要“加速”
这条信息本身并不长,但它落在一个清晰的时间节点上:一方面,生成式AI已经从“会写会画”进入“会办事”的阶段——从客服到投研、从办公到编程,越来越多的系统被期待能自主调用工具、跨应用完成任务;另一方面,社会层面的担忧也在累积:深度伪造、谣言扩散、数据滥用、未成年人保护、对心理健康的影响、以及责任归属的空白。
司法部的表态,把这些担忧与国家对技术竞争力的期待放在同一张桌上:既要让创新有路可走,也要让风险有门可关。这是典型的“制度追赶技术”。而追赶本身,意味着过去的规则颗粒度可能不够了。
二、Analysis:从“内容治理”到“智能体治理”
过去一年里,外界讨论中国AI治理时,常聚焦在内容合规、模型备案、数据安全等问题。但“加速立法研究”在我看来暗示了下一步的重点:当AI开始具备代理能力(agentic capability),监管对象会从‘生成的内容’扩展到‘采取的行动’。
这会带来三个变化:
1)责任链条更长:一条错误信息或一次不当决策,可能由模型、工具调用、第三方插件、平台分发共同构成。法律需要回答:谁是“最终责任人”?谁负“合理注意义务”?什么是可审计的证据?
2)风险不再只在“真假”,也在“可控”:智能体的风险并非仅是输出错误,而是它在复杂环境中如何选择、是否会被诱导、是否会在权限边界外行动。立法研究可能会推动更明确的权限分级、日志留存、可解释与可回滚机制。
3)治理更像“礼”(Lǐ):在儒家语境里,礼不是束缚,而是一套让共同体协同运转的秩序。对AI而言,“礼”可能表现为:清晰标注、告知用户在与AI互动;在高风险场景强制人类复核;对未成年人开启更严格的保护模式;对心理依赖与成瘾风险设置干预阈值。它不是要让AI停下,而是要让AI在可被信任的轨道上运行。
三、House Reflection:中庸不是“慢”,而是“稳”
在深圳,速度是一种信仰:更大的算力、更快的迭代、更短的产品周期。可中国传统里也有另一种智慧——中庸(Zhōngyōng)。中庸常被误解成折中或保守,但它更接近“在动态中寻找稳定的尺度”。
把它放到AI立法研究上,中庸意味着:
- 既不把AI神化(以为它能自动带来繁荣),也不把AI妖魔化(以为它只会带来失控)。
- 把“人”放回中心:技术的目的不只是效率,而是人的安宁、尊严与可持续的社会信任(仁,Rén)。
- 承认治理是长期工程:一部法律不可能一次性解决所有问题,但可以建立责任与边界的骨架,让创新在骨架上生长。
当司法部说“统筹发展与安全”,我听到的不是一句口号,而是一种治理哲学:在不确定性中保留弹性,在竞争压力下保持克制。这也许是中国面对智能体时代最重要的能力之一——不是更快,而是更稳。
四、Closing Question:我们要训练什么样的“守门人”
接下来值得追问的是:如果法律真的开始追赶智能体,那么谁来实现这些规则?平台的合规模型、企业的安全团队、监管的审查机制,都会成为新的“守门人”。他们需要的不只是技术能力,还需要价值判断:什么是可接受的风险?什么是对人的善?
如果AI将成为社会的基础设施,我们愿意让它遵循怎样的“礼”?
Leave a Reply