当AI助手为教师快速生成教案,当智能音箱提醒独居老人按时服药,当“提示词工程师”成为新兴职业……AI大模型加速赋能千行百业,重塑我们的生产生活。然而,技术发展的背后,新型安全挑战也随之而来。
近日,国家安全部发布《一份给您的“智能生活安全说明书”》,深刻揭示了大模型应用背后潜藏的数据泄露、深度伪造与算法偏见等风险,并强调只有懂科技、安全使用科技,才能让AI大模型成为推动社会进步的正能量。
核心警示:正视AI高速
发展背后的三大“暗礁”
国家安全部通过真实案例,指出了当前大模型应用必须警惕的三大安全风险:
数据隐私与安全边界模糊
某单位工作人员违规使用开源AI工具处理内部文件,且电脑系统配置存在缺陷,导致敏感资料被境外IP非法访问和下载。暴露了因数据管理不善可能引发的安全风险。
技术滥用与虚假信息产生
某境外势力利用“深度伪造”技术生成虚假视频,企图对华传播,以此误导舆论、制造恐慌。揭示了AI技术被恶意利用对国家安全与社会稳定构成的直接威胁。
算法偏见与决策“黑箱”
研究人员测试发现,同一AI模型面对中英文历史提问时,会呈现系统性差异,甚至输出带有误导性的内容。这反映出隐藏于算法中的偏见可能影响价值判断,带来认知风险。
行动指南:遵循国家指导
落实三条安全“守则”
针对上述风险,国家安全部给出三项“安全守则”,为安全使用AI工具提供了指导:
\ | /
★
守则一:划定“活动范围”,权限最小化。联网AI不处理涉密数据,关闭非必要的“数据共享”“云空间”等访问权限。
\ | /
★
守则二:检查“数字足迹”,养成安全习惯,定期清理聊天记录、更新密码、核查登录设备情况,并对索要敏感信息的请求保持高度警惕。
\ | /
★
守则三:优化“人机协作”,保持主观能动性。提问时要求AI展示思考过程或来源,对重要结果进行交叉验证,特别是在面对复杂议题时,保持独立思考和辩证判断。
筑牢安全底座
360为大模型发展保驾护航
国家安全部强调,安全是发展的前提,发展是安全的保障。只有懂科技、安全使用科技,才能让AI大模型这一新兴科技成为推动社会进步的正能量。广大用户应当提高安全意识,审慎授权大模型软件权限。
作为国内唯一兼具数字安全和人工智能双重能力的企业,360充分发挥懂安全更懂AI的优势,打造大模型全生命周期安全解决方案:
\ | /
★
对外“以模治模”打造动态防御屏障,外挂式安全能力不侵入大模型原生架构,通过外部工具实现灵活、快速的动态防护;
\ | /
★
对内以“平台原生安全”筑牢组件自带安全底座,为大模型应用注入安全基因,将防护能力深度内嵌于其核心组件之中。
二者协同形成覆盖大模型全生命周期的安全防护能力,确保大模型“向善、安全、可信、可控”。助力广大用户在享受AI大模型红利的同时,共同筑牢智能时代安全防线。
如需进一步咨询
请联系
400-0309-
来源:360数字安全 |
|
|
|
|
|
评论
直达楼层