2025年人工智能安全指数报告.pdf

2025年人工智能安全指数报告.pdf
本报告是未来生命研究所(FLI)发布的第三期人工智能安全指数(AI Safety Index),该指数对八家领先的AI公司在管理即时危害和高级AI系统的灾难性风险方面的努力进行了独立评估。报告由AI研究员和治理专家组成的专家评审小组完成,揭示了AI行业难以跟上自身能力快速发展的步伐,在风险管理和安全规划方面存在关键差距,威胁着控制日益强大AI系统的能力。 **关键发现:** * **领先企业地位稳固,但存在退步:** Anthropic、OpenAI和Google DeepMind继续保持其领先地位,其中Anthropic在每个领域都获得最高分。Anthropic通过高透明度的风险评估、完善的安全框架、大量技术安全研究投资以及其公益性公司结构和对州级立法的支持,维持了其在安全实践方面的领导地位。然而,其最新的风险评估周期中缺失了人类能力提升试验,并且默认训练方式转向用户互动,这显示出一些退步迹象。 * **头部与第二梯队差距大,但改进迹象显现:** 头部三家公司与第二梯队(xAI、Z.ai、Meta、DeepSeek和Alibaba Cloud)之间存在显著差距。尽管如此,第二梯队公司近期采取的一些措施预示着改进,有望缩小差距。这些公司在风险评估披露、安全框架完整性和治理结构(如举报政策)方面仍存在重大不足。 * **存在主义安全是核心结构性失败:** 尽管AGI/超智能的野心在加速,但没有一家公司能够提出一个可信的计划来防止灾难性滥用或失控。在这一领域,所有公司得分均低于D。尽管一些领导者公开表达了对存在主义风险的担忧,但这些言论尚未转化为量化的安全计划或具体的对齐失败缓解策略。 * **安全实践与新兴标准存在差距:** 许多公司的安全实践未能达到欧盟AI行为准则等新兴标准。行业内普遍存在公开治理框架与实际安全实践之间的差距,公司仍未能满足独立监督、透明威胁建模、可衡量阈值和明确的缓解触发器等基本要求。 * **中国公司受国内法规推动,具备较强基线:** 尽管中国公司未进入前三名,但其在安全实践方面的一些规定受到了赞扬。国内法规,包括内容标签和事件报告的强制性要求,以及自愿性国家技术标准,为中国公司在某些指标上提供了比西方同行更强的基线责任。 **总体而言,** 报告指出,AI公司的安全承诺远远落后于其能力野心。即使是表现最佳的公司也缺乏应对强大系统的具体保障措施、独立监督和可信的长期风险管理战略,而行业其余部分在基本的透明度和治理义务方面则远远落后。这种能力与安全之间的差距,使得该行业在结构上未能为自身创造的风险做好准备。 **方法论:** * **指标:** 评估涵盖风险评估、当前危害、安全框架、存在主义安全、治理与问责、信息共享与公众沟通六个领域,共35项指标。 * **公司选择:** 包括Anthropic、OpenAI、Google DeepMind、xAI、Z.ai、Meta、DeepSeek和Alibaba Cloud。 * **数据收集:** 截至2025年11月8日,结合公开可用材料(模型卡、研究论文、基准测试结果)和公司调查问卷。 * **专家评估:** 由八位AI研究员和治理专家组成的独立小组进行评分。 报告最后提供了各公司的详细排名和在各领域的表现,以及改进建议,旨在推动行业朝着更安全、更负责任的方向发展。
下载完整报告 | 1.35 MB | 114页
阅读和下载会消耗积分;登录、注册、邀请好友、上传报告可获取积分。
成为VIP会员可免费阅读和下载报告