ChatGPT 创建者成立了一个“独立”安全委员会,有权暂停人工智能模型

对于任何涉足人工智能领域的公司来说,安全都是至关重要的,对于该领域的顶尖企业之一 OpenAI(ChatGPT 背后的团队)来说,安全尤为重要。现在,在对其安全和安保实践进行详细审查后,该公司成立了一个独立的安全委员会,以确保一切正常。

但它到底有多独立呢?

OpenAI 正在将其安全委员会转变为一个独立的“董事会监督委员会”,如果存在安全问题,该委员会可以推迟模型的发布,如该公司的博客文章。此次转变是在最近对其安全实践进行了为期 90 天的审查之后做出的,审查期间委员会建议成立独立董事会。

该委员会由 Zico Kolter 领导,成员包括 Adam D'Angelo、Paul Nakasone 和 Nicole Seligman,他们将从公司领导那里获得有关安全评估的最新信息。

它将与全体董事会一起监督这些发布,如果出现安全问题,可以推迟发布。此外,OpenAI 的全体董事会将定期收到有关安全和保障问题的最新消息。

然而,由于 OpenAI 安全委员会成员也是董事会成员,因此该委员会的独立性以及这种独立性是如何组织的还不太清楚。

另一方面,OpenAI 表示正在与外部组织合作,例如美国顶尖国家实验室之一洛斯阿拉莫斯国家实验室,探索如何在实验室环境中安全地使用人工智能来推进生物科学研究。

此外,它最近还与美国和英国的人工智能安全研究所达成协议,共同研究新的人工智能安全风险并制定可信人工智能的标准。

我们将探索更多机会对我们的系统进行独立测试,并将带头推动全行业的安全标准。例如,我们已经与第三方安全组织和非政府实验室建立了新的合作关系,以进行独立的模型安全评估。我们还与政府机构合作,推进人工智能安全科学的发展。

– OpenAI,2024 年 9 月

我认为严格的监管对人工智能至关重要,尤其是关于公司如何训练模型,因此看到安全委员会变得越来越普遍是令人鼓舞的。例如,Meta 也有自己的监督委员会,负责审查内容政策决策并发布 Meta 必须遵守的裁决。但是,我认为如果安全委员会由与他们监管的公司没有任何关系的人组成会更好。你对此有何看法?