飞机飞行 发表于 2026-5-7 20:09

当五眼联盟拉响警报:中国政企机构该如何应对智能体安全危机

近日,一份关于智能体AI安全的联合指南,在全球网络安全圈引发关注。

美国CISA、美国NSA、英国NCSC、澳大利亚ASD、加拿大网络安全中心、新西兰NCSC等国家级网络安全机构联合发布《谨慎采用智能体AI服务》指南,提醒政府、关键基础设施和企业组织,在引入智能体AI时必须同步建立安全治理能力。

这份指南释放了一个明确信号:智能体AI已经不只是效率工具,而正在进入关键业务、核心系统和基础设施场景。与普通聊天机器人不同,智能体AI能够调用工具、访问数据、执行操作、发起指令。一旦缺乏有效约束,它带来的就不只是内容生成错误,而可能演变为权限滥用、数据泄露、业务中断甚至系统性安全风险。

换句话说,智能体已经从“能不能用”的阶段,进入“如何安全使用”的阶段。






智能体安全风险,不止来自本身

指南重点指出,智能体AI的安全风险集中体现在五个方面。



首先是权限蔓延。智能体一旦被授予过高权限,就可能在被攻击、被诱导或误执行时,直接触达核心系统和敏感数据。对政企机构来说,这意味着一个部门级智能体的失控,可能影响整个业务链条。



其次是设计与配置缺陷。智能体的目标设定、触发条件、工具调用接口、外部系统连接方式,如果在上线前缺乏安全评估,就可能把漏洞埋进系统底层。



第三是行为偏差。智能体可能以设计者未预期的方式完成任务,例如绕过规则、误解指令、执行越界操作。这类风险并不总是来自攻击者,有时也来自系统自身的不确定行为。



第四是级联失效。当多个智能体相互协作、相互调用,一个环节的异常可能迅速传导,形成连锁反应,速度远超人工响应能力。



第五是问责困难。当智能体删除文件、修改权限、触发错误操作后,如果没有完整日志和可审计机制,组织很难还原过程、定位责任、快速处置。



这些风险共同指向一个核心问题:我们正在把越来越多的自主权交给AI系统,但与之匹配的安全治理体系还没有同步建立。

对中国政企机构来说,这是一道必答题

当前,智能体AI正在加速进入我国政务服务、金融运营、能源管理、工业生产、办公协同、运维处置等场景。政务问答助手、合规审核机器人、自动化运维平台、数据分析智能体、供应链调度系统……在提升效率的同时,也把新的攻击面带进了业务系统。



360在安全实战中观察到,政企机构在智能体AI落地过程中,普遍面临几类问题:



一是“影子智能体”大量存在。部分部门自行接入AI工具,未统一登记、未纳入审批、未建立权限台账,安全团队无法看见,也无从管理。



二是权限设计滞后。部分智能体以较高权限接入业务系统、数据库、接口平台,管理员并不清楚它能访问哪些数据、执行哪些操作。



三是日志审计不足。智能体的输入、输出、工具调用、权限变更等行为缺乏完整记录,出了问题难以溯源。



四是供应链风险被低估。第三方AI产品背后的模型来源、插件组件、数据流向、权限边界往往不透明,一旦被利用,风险可能沿业务链条扩散。



因此,智能体AI安全不能只靠上线前的一次测评,也不能简单套用传统IT系统的管理流程。它需要一套覆盖资产、权限、行为、审计、供应链和应急处置的全生命周期治理机制。


七步建立智能体安全防线

面向政企机构,360建议从七个方面入手,推动智能体从“快速上线”转向“安全可控”。



第一,摸清家底,建立智能体AI资产清单。



所有已部署、试运行和采购中的智能体AI系统,都应纳入统一登记,明确它接入了哪些系统、访问哪些数据、拥有哪些权限、由谁负责管理。



第二,收紧权限,落实最小必要授权。



对智能体权限进行专项审计,避免授予过宽、过深、过长期限。涉及核心数据库、财务系统、生产系统和关键业务平台的智能体,应设置明确操作边界。



第三,建立围栏,高风险操作必须人在回路。



删除数据、修改权限、变更配置、发起支付、调用关键接口等高影响操作,不应完全交由智能体自主完成,应设置人工确认、二次审批和操作留痕机制。



第四,防范提示词注入,守住智能体入口。



凡是接触外部输入的智能体,包括邮件、文档、网页、客服对话、用户上传内容等,都应部署输入过滤、内容审查和恶意指令识别能力,并将提示词注入纳入常态化演练。



第五,持续监控,让行为日志可审计、可追溯。



智能体的输入内容、工具调用、权限使用、输出结果、异常行为都应形成完整日志,并与现有安全运营平台联动,确保风险可发现、事件可复盘、责任可追溯。



第六,核查供应链,把安全能力纳入采购门槛。



采购第三方AI产品和智能体服务时,不能只看功能和效果,还要明确模型来源、权限设计、日志机制、数据使用范围、提示词注入防护能力和安全责任边界。



第七,分级部署,从低风险场景逐步推进。



智能体不宜一上来就接入核心生产系统和关键数据资产,政企机构应建立分级审批机制,从低风险、非敏感、可回滚场景开始,逐步积累治理经验。

智能体安全,需要“懂AI”也“懂安全”

事实上,智能体安全的复杂性在于,它并非单一技术问题,而是AI安全与传统数字安全的交汇点。



一方面,要理解大模型的行为机制、提示词注入的攻击方式、智能体自主决策和工具调用逻辑;另一方面,也要具备权限管理、漏洞发现、行为监控、日志审计、应急响应等传统数字安全能力。



这正是360长期布局AI安全的核心方向。



作为长期深耕数字安全的企业,360一方面持续推动“AI赋能安全”,将大模型和智能体能力用于漏洞挖掘、安全运营、威胁研判和攻防对抗;另一方面,也围绕“安全护航AI”,构建面向大模型、智能体应用的安全防护体系。



在漏洞发现层面,360自主研发漏洞挖掘智能体,推动漏洞发现从依赖专家经验,向自动化、规模化、智能化演进,帮助政企机构更早发现潜藏在系统、组件、代码和供应链中的深层风险。



在智能体防护层面,360基于“以模治模”思路,构建面向智能体全生命周期的安全能力,覆盖智能体资产发现、权限管理、提示词注入检测、异常行为监控、漏洞检测与治理、安全审计等关键环节。



不久前,IDC发布《中国智能体威胁检测技术评估,2026》,360凭借在智能体资产管理、漏洞检测与管理等方面的能力入选,体现了360在智能体安全领域的技术积累和实践能力。

智能体时代已经来临,对于我国政企机构而言,关键在于能不能在使用期间看得见、管得住、防得住、追得回。未来,360将持续发挥“懂安全,更懂AI”的优势,助力政府机构、国有企业、关键基础设施运营商和各行业客户,共同构建安全、可信、可控的智能体安全防线。



360数字安全
页: [1]
查看完整版本: 当五眼联盟拉响警报:中国政企机构该如何应对智能体安全危机