OpenAI董事会将有权力推翻管理团队的决策

在OpenAI董事会於11月开除创办人暨执行长Sam Altman之後,不断有传闻指出是因Altman企图推出可能威胁人类的产品才使得董事会不得不采取行动,纵使OpenAI当初仅以Altman不够坦承为由轻轻带过,且迄今尚未公布具体事由,但本周一(12/18)OpenAI公布了该公司的模型评估策略,并说董事会将有权力推翻管理阶层的决策。

OpenAI原本就有两个负责检验模型风险的团队,一是安全系统(Safety Systems)团队,负责的是减轻已商业化模型或产品的风险及误用,例如ChatGPT。二则是负责监督先进的超智慧(Superintelligent)模型的超对齐(Superalignment)团队,而本周OpenAI发表了一个介於安全系统与超对齐之间的准备(Preparedness)团队,锁定发展阶段介於现有模型与超智慧模型之间的前沿模型(Frontier Model),专门检验前沿模型的风险。

准备团队将把风险的讨论从假设场景转移到具体测量与基於资料的预测,目前的作法是评估且不断更新前沿模型的记分卡,探究模型不安全因素的具体边缘,并有效地降低已揭露的风险,此一记分卡会列出前沿模型在网路安全、CBRN(化学、生物、放射线、核威胁)、说服力与模型自主性的风险等级(重大、高、中度、低度),只有在缓解後处於高度或以下风险的模型才会继续开发,也只有在缓解後处於中度或以下风险的模型才会被部署。另对於高度或重大风险等级的模型,则会为其量身订做额外的安全措施。

准备团队所检验与评估的是即将进入商业化的模型或产品,并提出综合报告,再由OpenAI即将成立的安全顾问小组(Safety Advisory Group)来审核所有的报告,且同时将这些报告送给管理团队及董事会。OpenAI指出,虽然决策是由管理团队执行,但董事会有权力推翻这些决策。

此外,OpenAI也会制定各种规则来增加安全性与外部的问责,由准备团队定期展开安全演习,以针对OpenAI的业务及文化进行压力测试。

AI的风险或许尚不可知,但OpenAI指出,该公司内部团队将与外部组织密切合作,追踪现实世界的滥用行为,也会由超对齐团队来追踪紧急的错位风险,同时展开新研究来衡量那些随着模型扩展而衍生的风险,持续试着探测与揭露那些尚不可知的未知风险。


评论

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注