返回顶部
AiGoe.com 首页 AI快讯

OpenAI、DeepMind 安全垫底!权威机构发布 AI 安全指数,呼吁行业紧急整改 ...

AI快讯 2025-12-4 17:46 69人浏览 0人回复
摘要

非营利组织生命未来研究所(Future of Life Institute)发布《AI 安全指数2025》报告,对 OpenAI、Anthropic、Google DeepMind 等20余家头部企业进行安全评估。结果显示,头部厂商在“生存风险控制”“安全流程披露 ...

 非营利组织生命未来研究所(Future of Life Institute)发布《AI 安全指数2025》报告,对 OpenAI、Anthropic、Google DeepMind 等20余家头部企业进行安全评估。结果显示,头部厂商在“生存风险控制”“安全流程披露”两项核心指标上集体不及格,行业平均得分仅为42/100,远低于欧盟《人工智能实践准则》要求。

报告要点

- 风险评估:仅3家企业公开系统性风险识别方法;OpenAI、DeepMind 未披露“超级智能对齐”技术细节

- 安全框架:缺乏跨部门安全官、红队演练记录与第三方审计,被批“承诺多、证据少”

- 生存安全:所有受评公司均未给出“比人类更聪明系统”的明确控制与协调方案,被认定为“结构性弱点”

- 信息透明:信息披露深度、可衡量性平均落后官方准则30个百分点

FLI 倡议

报告呼吁立即设立“AI 安全透明登记簿”,强制企业公开安全方法、评估结果与独立审计;同时建议监管机构对通用人工智能(AGI)项目实施“上市前审批”制度,避免“先发布、后治理”。

行业回应

OpenAI 发言人表示“已收到报告,将在90天内公开更新版安全框架”;Google DeepMind 则称“正与政策团队评估具体建议”。欧盟委员会内部市场专员回应称,2026年《AI 法案》执法将参考该指数,违规企业最高面临全球营业额2% 罚款。

市场影响

分析师指出,安全合规或成为下一代大模型的“隐形门票”,预计2026年起头部厂商将把10%–15% 研发预算投入安全与审计,以换取监管绿灯。

本文暂无评论,快来抢沙发!

推荐阅读
热门问答
AiGoe.com 成立于2014年8月,是目前国内优秀的开源技术社区,拥有超过300万会员,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2001-2020, Tencent Cloud. |
  • | 营业执照 | |星点互联科技有限公司|鲁ICP备19001237号-21|鲁公网安备 4236902302000354号