OpenAI发布安全指南:董事会有权阻止CEO发布新模型

来源:211COIN

2023-12-19 10:13:52

12月19日消息,据官方消息,OpenAI在官方网站发布了一份名为“准备框架(Preparedness Framework)”的安全指南,规定了“跟踪、评估、预测和防范日益强大的模型带来的灾难性风险的流程”。 OpenAI表示,对前沿人工智能风险的研究,远远没有达到需求。为了解决这一差距并使安全思维系统化,OpenAI正在采用“准备框架”的测试版本,“准备(Preparedness)团队”将致力于确保前沿人工智能模型的安全。“准备团队”将持续评估人工智能系统,以了解其在四个不同风险类别中的表现。OpenAI正在监控所谓的“灾难性”风险,它在这份指南中被定义为“可能导致数千亿美元经济损失或导致许多人严重受伤甚至死亡的任何风险”。 根据安全指南,领导层可以根据这些报告决定是否发布新的人工智能模型,但董事会有权推翻其决定。
211COIN发布此信息目的在于传播更多信息,与本网站立场无关,文章内容仅供参考,不代表任何确定性判断,且不构成投资建议,请谨慎对待,风险自担。
相关快讯
微信:yelbtc 请注明来意 | 邮箱:[email protected]

Copyright © 2018-2022 211COIN版权所有.

京ICP备17000885号-3