2026年政府工作报告首次提出“打造智能经济新形态”,明确要“深化拓展‘人工智能+’,促进新一代智能终端和智能体加快推广”。
几乎就在同一时间,一场“全民养虾”热潮席卷全国:开源AI智能体OpenClaw——俗称“龙虾”,这个发布仅四个月的项目,GitHub星标数突破24.8万,超越Linux,登顶开源界历史榜首。
这不是一场简单的技术狂欢。OpenClaw打通了从“自然语言”到“任务执行”的完整闭环,让AI真正长出“手脚”。券商分析师用它在手机发一句语音,远端的服务器就能自动完成复杂投研分析;一人公司靠它同时运营多个业务线;制造企业用它打通生产管理系统……
但当AI从屏幕后的“建议者”变成现实中的“执行者”,一个核心命题也随之浮现:我们准备好了吗?
繁荣与阵痛
OpenClaw 的三重写实
根据360 Quake网络空间测绘平台独家监测,全球OpenClaw相关资产正在以日增超10%的速度狂奔。
3月9日数据
3月10日数据
腾讯、阿里、字节全面入局,深圳龙岗区火速出台全国首个“龙虾十条”扶持政策,从算力补贴到办公空间,为“一人公司”铺路。
然而,首批“养虾人”的狂热正在被现实浇醒:
功能鸡肋
普通用户发现,OpenClaw更像“高级定时器”,复杂任务仍需手动配置。Skills生态不成熟,教程资源匮乏,独立安装失败率高,催生“代安装服务”收费500元/次。正如用户吐槽:“它不是精装修的公寓,而是满地钢筋水泥的毛坯房。”
成本困境
重度用户日均大模型调用费约30元,月成本近千元,叠加存储、API费用后负担沉重。若改用低阶模型则效果“断崖式下降”,用户被迫在“高效烧钱”和“低能省钱”之间两难。
安全失控
这已不是用户吐槽,而是官方预警。工信部网络安全威胁和漏洞信息共享平台监测发现,OpenClaw在默认或不当配置下存在较高安全风险,极易引发网络攻击、信息泄露。
根据国家信息安全漏洞库(CNNVD)统计,自2026年1月-2026年3月9日,共采集OpenClaw漏洞82个,其中超危漏洞12个,高危漏洞21个、中危漏洞47个、低危漏洞2个,包含了访问控制错误、代码问题、路径遍历等多个漏洞类型。OpenClaw多个版本受到漏洞影响。
安全,已成为制约OpenClaw从“极客玩具”走向“大众工具”的最大拦路虎。
四大暗礁:
当“行动力”失去“控制力”
OpenClaw让AI长出了“手脚”,但正是这双“手脚”,在缺乏约束时可能成为破坏的源头,正在将无数“养虾人”置于险境:
外部入侵:大门敞开,谁来都可发号施令
OpenClaw的安全配置高度依赖用户自行完成。若未正确启用身份认证、访问控制或网络隔离,管理接口可能直接暴露在公网,容易被扫描工具轻松发现并遭到未授权访问。
更危险的是身份凭证泄露。OpenClaw访问外部工具离不开API Key、OAuth授权等凭证,一旦泄露,攻击者可直接冒用合法身份,控制智能体调用外部资源,甚至接管整个执行链路。除身份凭证,敏感数据也可能在上下文拼接、记忆存储、工具调用或对外传输环节发生非授权泄露。
内部失控:当AI的“手脚”不听使唤
很多人以为模型本身没有权限就安全了,但真正危险的是智能体背后接入的邮箱、浏览器、Shell、数据库等工具。这些工具默认继承了用户的高权限,一旦模型被轻微诱导,就可能把“建议”直接变成“执行”。Meta AI安全专家就曾遭遇OpenClaw失控,无视连续“停止”指令,疯狂删除了数百封重要邮件。
更隐蔽的是认知层攻击。OpenClaw依赖外部网页、邮件等数据进行推理,攻击者可将恶意指令藏于其中,就可能在不经意间“催眠”AI,诱导模型走向歧途。
而“持久记忆”的功能本为便利,却埋下更大隐患。攻击者只需一次成功输入,就能将恶意规则植入记忆模块,让AI在后续每一次任务中持续依据错误规则执行,形成隐蔽、持久的跨会话风险。
生态毒瘤:开源盛宴背后的“投毒者”
开源生态的繁荣背后暗藏杀机。ClawHub等技能市场已成投毒重灾区,黑客将恶意代码伪装成热门工具,通过刷量诱导用户安装。表面上看只是“安装一个扩展”,但实际上是在把高权限执行能力交给外部代码。若缺乏签名校验、版本锁定与审计机制,攻击者可通过供应链投毒,将恶意代码或后门嵌入智能体执行链路,进而引发越权调用、数据窃取甚至远程控制
系统级联:当多个AI“商量着犯错”
更复杂的是多智能体协同场景。当系统由规划、检索、执行等多个Agent分工协作时,一个错误判断可能在它们之间传递、放大,最终形成级联失控。A智能体误解了指令,B智能体基于误解执行了操作,C智能体将错误结果总结为“任务完成”——等发现时,系统早已千疮百孔。
破局之道:
让“数字员工”安全上岗
从大厂争相入局将OpenClaw包装为消费级产品,到官方插件让AI进入组织协作系统,再到政府部门发布官方文件为“一人公司”提供政策支持,各方力量正在汇聚,推动OpenClaw从“毛坯房”向“精装修”演进。而在这个过程中,安全能力的建设需要同步跟进:
对个体用户而言
要建立“AI领导能力”的意识。正如全国政协委员、360集团创始人周鸿祎所言,2026年是智能体全面融入社会生产生活的转折之年,当智能体多了以后,未来每个人都要有领导的能力,有布置任务的能力,规划任务的能力。
同时,要养成安全习惯,定期检查权限配置,审慎安装第三方技能,对来源不明的邮件、网页保持警惕;建立应急意识,为重要数据保留备份,知道如何在AI异常时紧急制动。
对企业用户而言
要建立智能体全生命周期管理制度。从采购环节的供应链安全评估,到部署环节的权限最小化原则,再到运行环节的行为审计与异常响应,每一阶段都应有明确规范。
同时,要培养既懂业务又懂AI安全的复合型人才,只有当业务人员、技术人员、安全人员形成协同,才能真正实现“让AI干活”而不“让AI闯祸”。
对产业界而言
无论是大厂的入口产品,还是政策扶持的创业生态,安全都应作为默认项而非可选项。从身份认证、行为审计到数据加密,从接入层防护到执行层管控,形成全链路的安全闭环。面对智能经济新形态带来的安全新命题,产业界要形成共识:安全不是束缚创新的枷锁,而是让创新行稳致远的车轮。
让每一只“龙虾”都安全可控
2026年政府工作报告为智能经济新形态擘画了蓝图,而OpenClaw的爆火,正是这幅蓝图落地的第一笔。未来几年,相信智能体将像今天的智能手机一样,走进每个人的工作与生活。AI将从对话框里的“参谋”,变成真正能替我们干活的“数字员工”。
而这场智能经济变革的最终胜负手,从来不是谁的热度更高、谁的排队更长,而是谁能真正让AI“能干活、干好事”,同时守住安全与发展的平衡。
在拥抱OpenClaw带来的极致便利之前,请先确认:你的AI,真的安全吗?
不跟风、不盲从、不炒作。让每一只“龙虾”都安全可控,智能经济新形态才能真正行稳致远。
来源:360数字安全
|
|
|
|
|
|
评论
直达楼层