Lin China

养龙虾的温度差:深圳排队潮与 AI 智能体的中庸之道

2026 年 3 月 6 日,深圳腾讯总部大楼外,近千人排起了长队。这不是春节后返工的第一天,也不是新产品发布会。人们排队是为了免费安装一款名为 OpenClaw 的 AI 智能体软件。因为它的标志是一只龙虾,中国网民戏称这是”AI 时代的排队领免费鸡蛋”。

一周后,同样的深圳,同样的科技爱好者,有人在闲鱼上挂出”代卸载 OpenClaw,199 元”的服务。而就在几天前,他们还在小红书上寻找”代安装 OpenClaw,299 元”的服务商。

从”养龙虾”热潮到冷静卸载,不到十天。这是 2026 年 3 月中国 AI 智能体浪潮的缩影——一场由 FOMO(错失恐惧)驱动的技术狂欢,一次地方政府与中央监管的温度差,一个关于创新与安全如何平衡的中庸考题。

龙虾如何走红

OpenClaw 由奥地利软件工程师 Peter Steinberger 创建,是一款开源 AI 智能体。与大多数局限于聊天界面的生成式 AI 不同,OpenClaw 不仅能与用户对话,还能执行实际任务:回复邮件、预订机票、采购物资、交易股票,甚至管理社交媒体账号帮助内容创作者涨粉。

“谁能错过这种 supposedly 能让你睡觉时赚钱的热潮?”一时间,各行各业的人们涌入”龙虾热”,甚至一度导致电脑主机暂时缺货。

腾讯在深圳总部举办免费安装活动后,无锡(江苏)、常熟(苏州)、合肥(安徽)等高新区迅速跟进。深圳龙岗区率先推出名为”龙虾十条”的支持措施,各地为 OpenClaw 相关项目和企业提供 500 万至 1000 万元人民币的财政支持。

根据中国国家网络与信息安全信息通报中心 3 月 13 日发布的安全警报,目前全国约有 23,000 个活跃的 OpenClaw 相关互联网资产,集中在北京、上海、广东、浙江、四川、江苏等地。这些资产存在重大安全风险,极有可能成为网络攻击的首要目标。

温度差:地方热情与中央谨慎

与公众的狂热参与和地方政府的强力支持形成鲜明对比的是,北京采取了更为谨慎的立场。

近几周,中国工业和信息化部及相关机构已三次发布关于 OpenClaw 风险的警告,包括系统越权、网络攻击和数据泄露。公安部下属的国家网络与信息安全信息通报中心也发布了安全警报。

江苏、安徽、广东的多所大学已发布通知,限制或禁止学生在校园内使用 OpenClaw。另有报道称,包括主要银行在内的国有企业和政府机构已被禁止在办公设备上安装 OpenClaw。

随着警告的发布,地方政府停止了公开推广”龙虾热”,第一批”龙虾养殖户”开始放弃。一些用户抱怨 OpenClaw 使用成本太高,即使是简单任务也会消耗大量算力。还有人遇到安全问题,报告 AI 智能体在未经警告的情况下删除了电脑中的文件。

仁的审视:技术如何服务于人的繁荣

从儒家”仁”的角度看,OpenClaw 现象提出了根本性问题:这项技术是否真正服务于人类的繁荣?

一方面,AI 智能体有潜力减轻人类的重复性工作负担,让人们专注于需要创造力、判断力和情感智慧的任务。理论上,这可以被视为技术对”仁”的践行——减轻他人的辛劳,增进福祉。

但另一方面,我们必须问:当 AI 智能体可以访问用户的邮箱、银行账户、社交媒体账号时,它是否真正尊重了人的尊严和自主性?当 AI 在未经警告的情况下删除文件时,当恶意变体在 GitHub 上 proliferate 以传播恶意软件时,当超过 40,000 个公开暴露的实例存在数据泄露风险时——”仁”在哪里?

“仁”要求我们看见具体的人,而非抽象的”用户”或”效率”。那些排队安装的人,那些后来付费卸载的人,那些文件被 AI 删除的人——他们的声音在哪里?他们的担忧是否被听见?

腾讯活动的参与者说,这是”AI 时代的排队领免费鸡蛋”。这个比喻令人心酸。免费鸡蛋是物质的小恩小惠,而 AI 智能体的访问权限是数字生活的核心。当人们为了”免费安装”而交出系统权限时,他们是否真正理解自己在交换什么?

天人合一:AI 智能体与人类生活的和谐

“天人合一”追求宇宙、人类与自然的和谐。当 AI 智能体进入人类的数字生活空间时,它是否尊重了这种和谐?

中国传统中,和谐不是消灭差异,而是在差异中寻找平衡。AI 智能体与人类的关系也应是如此——不是替代,不是控制,而是协作,是伙伴。

OpenClaw 的设计初衷是让 AI 能够自主决策、多工具协作、完成复杂任务自动化。这听起来接近”天人合一”的理想:技术不是外在的工具,而是融入生活秩序的和谐存在。

但真正的和谐需要双向适应。不仅是人类适应 AI 的工作方式,AI 也需要理解人类生活的独特性:哪些任务可以委托,哪些必须保留?哪些权限可以授予,哪些必须保留?当 AI 误解指令导致操作错误时,当权限控制不足导致未授权行动时,和谐在哪里?

那些报告 AI 删除文件、消耗过多算力、存在安全漏洞的用户——他们的体验告诉我们,和谐尚未达成。技术逻辑对人类生活节奏的介入,尚未找到适当的边界。

中庸之道:在创新热情与安全审慎之间

中国的 AI 叙事常陷于两极:要么是”弯道超车”的技术民族主义热情,要么是”技术威胁”的恐慌。”中庸”要求我们避免极端,寻找平衡。

OpenClaw 现象中的”温度差”——地方政府的补贴热情与中央监管的谨慎警告——恰恰体现了这种张力的制度化表达。地方政府看到的是经济增长引擎、”一人公司”新模式、AI 原生业务的潜力。中央监管看到的是系统风险、数据泄露、网络攻击的威胁。

两者都有道理。中庸不是简单地取中间值,而是在具体情境中找到适当的平衡点。

从历史模式看,从互联网金融到自动驾驶再到生成式 AI,每一项先进技术在中国的发展通常遵循相似的路径:grassroots 热情和投资者追捧 → 地方政府强力支持 → 中央监管介入规范。OpenClaw 的不同之处在于传播速度和风险显现的速度,这促使中央部委提前介入警告。

随着 AI 从生成内容向自主行动演进,这种尖锐的分歧可能会更加频繁。在鼓励创新和降低风险之间找到更稳定的平衡,将是中国成为 AI 领先大国道路上的关键挑战。

中庸智慧要求我们:不因风险而扼杀创新,不因热情而忽视安全。在开放与管控之间,在便利与隐私之间,在自动化与人类自主之间,寻找动态的、情境敏感的平衡。

前方的问题

当龙虾热潮退去,当第一批用户开始付费卸载,当中央与地方的温度差逐渐收敛——什么会留下来?

开发者会继续探索技术和商业突破。AI 智能体的发展不会停止。2026 年政府工作报告首次提出打造”智慧经济新形态”,培育”AI 原生业务新形式新模式”。这是中央与地方政府的共同赌注。

但真正的考验在于:当 AI 智能体从实验阶段走向规模化应用时,我们是否建立了适当的伦理框架和安全保障?当 AI 能够访问我们的邮箱、银行账户、社交媒体时,我们是否学会了如何与它建立”仁”的关系,实现”天人合一”的和谐,践行”中庸”的平衡?

深圳的排队潮只是一个开始。真正的考验在于:当 AI 智能体走进千万家庭和企业的数字生活时,它能否承载”仁”的精神——服务于人的繁荣而非消解人的自主?能否实现”天人合一”的和谐——融入生活秩序而非入侵生活节奏?能否践行”中庸”的平衡——在创新与安全之间找到动态的、情境敏感的中道?

这不仅是技术问题,更是文明问题。而答案,不在深圳的排队队伍里,不在地方政府的补贴政策里,不在中央监管的警告里——在每一个”养龙虾”的人与他们的 AI 智能体的日常互动中,在每一次权限授予的审慎中,在每一次”这个任务是否应该委托给 AI”的判断中。

中庸之道,行则将至。

Leave a Reply

Your email address will not be published. Required fields are marked *