OPENAI授权安全团队应对高风险人工智能开发

2023-12-19 大飞

OpenAI 推出了一项新的安全举措,如果董事会认为人工智能开发相关风险过高,则董事会有权推翻首席执行官萨姆·奥尔特曼 (Sam Altman)。这项综合战略被称为“准备框架”,旨在解决研究前沿人工智能风险和系统化安全协议方面的现有差距。该框架描述了 OpenAI 的监控、评估、预测和防范日益强大的人工智能模型带来的灾难性风险的流程。

OPENAI授权安全团队应对高风险人工智能开发

高风险人工智能开发框架

根据这一大胆举措,OpenAI 将建立专门团队来监督人工智能开发风险的各个方面。安全系统团队将重点关注与 ChatGPT 等现有人工智能模型相关的潜在滥用和风险。同时,准备团队将仔细审查前沿模型,而专门的超级调整团队将密切监控超级智能模型的开发。所有这些团队都将在董事会的职权范围内运作。

随着 OpenAI 推动创造超越人类智能的人工智能,该公司强调需要预测未来的挑战。新模型将接受严格测试,被推向“极限”,随后对四个风险类别进行评估:网络安全、说服(谎言和虚假信息)、模型自主(自主决策)和 CBRN(化学、生物、放射性、和核威胁)。每个部分都将被分配一个风险评分(低、中、高或严重),然后是缓解后评分。如果风险为中等或以下,部署将继续进行;如果风险较高,则继续采取预防措施;如果认为严重,则停止部署。OpenAI 还致力于采取问责措施,在出现问题时引入独立第三方进行审计。

OpenAI 的人工智能安全方法及其未来影响

OpenAI 非常重视促进广泛的协作,不仅在外部,而且在其内部团队的复杂网络内,特别是安全系统。这种协作协同作用被积极引导到针对现实世界滥用行为的警惕性监控和缓解努力。为了扩大这种合作精神的广度,OpenAI 将其合作努力无缝地扩展到了超级对准领域,其中激光重点战略性地集中于细致识别和随后解决与错位相关的紧急风险。

OpenAI 坚定不移地致力于突破知识的边界,成为开拓新研究领域的开拓者。这种对创新的不懈追求的一个特别重点在于对控制风险演变与模型指数扩展的微妙动态的复杂探索。这项学术探索的总体目标是雄心勃勃的——提前预测风险。这一雄心勃勃的目标是通过战略性利用从过去的胜利中收集的见解,特别是那些基于遵守规模法则的见解来支撑的。

随着 OpenAI 在人工智能安全方面迈出了里程碑式的一步,关于允许董事会否决首席执行官的影响的问题仍然存在。这一决定能否在创新和谨慎之间取得适当的平衡?准备框架在预见和减轻与开发先进人工智能模型相关的风险方面的效果如何?只有时间才能证明这一大胆举措是否使 OpenAI 成为负责任的人工智能开发的先驱,或者是否引发了关于不断发展的人工智能领域的权威与创新交叉的争论。


免责声明:所提供的信息不是交易建议,www.wo.cc对根据本页提供的信息进行的任何投资不承担任何责任。本文内容仅供参考,风险自担!

相关新闻

更多>>
APP排行榜

赛马娘prett yderby

10.0分

180652

剑客物语

10.0分

152301

地城邂逅记忆憧憬

9.0分

127562

4

奇趣大冒险

9.0分

102654

5

三国志汉末霸业

9.0分

100278

6

小镇大厨

8.0分

89541

7

动物森林会

8.0分

80574

8

摩尔庄园

8.0分

75489

9

城堡传说大乱斗

7.0分

72451

10

魔女之泉

7.0分

69486