阻止AI毁灭人类,OpenAI、微软、谷歌等公司共同成立“自治组织”| 最前线
作者 | 周愚
编辑 | 邓咏仪
当监管的目光开始频频投向AI,科技巨头们正在用自愿倡议的方式占据主动权。
(资料图)
美国时间7月26日,OpenAI、微软、谷歌和Anthropic等四家AI领域巨头宣布成立行业组织“前沿模型论坛”(Frontier Model Forum),目的是“确保前沿AI开发的安全和负责任”。
7月初,OpenAI曾就“前沿AI监管”发文,将“前沿AI”模型定义为:具有造成严重公共安全风险能力的高性能基础模型。
来源:OpenAI推特
声明指出,论坛的核心目标包括如下四点:
推动人工智能安全研究,促进前沿模型负责任的发展,最大限度降低风险,实现对AI能力与安全的独立、标准化评估。 确定负责任前沿模型开发和部署的最佳做法,向公众普及AI技术的性质、能力、限制与影响。 与政策制定者、学者、民间社会和公司合作,并分享有关AI信任和安全风险的知识。 针对解决当前社会最大挑战,如气候变化减缓和适应、早期癌症检测和预防,以及网络威胁应对,支持开发相关应用。这些目标与四家公司上周五在白宫作出的自愿承诺基本一致,当时共同作出承诺的公司还有Meta、亚马逊和Inflection。
“开发人工智能技术的公司有责任确保其安全、可靠,并处于人类控制之下。”微软总裁布拉德·史密斯在声明中强调。
论坛的成立体现了行业巨头在AI安全方面的积极态度,但这些公司也希望借此换取更大的主动空间——用主动合规避免被动监管,甚至在一定程度上参与规则的制定。
四家公司发布的声明中表示,“前沿模型论坛”希望支持和推动现有政府和多边倡议在人工智能方面的工作,包括七国集团(G7)广岛AI进程,经合组织(OCED)关于AI风险、标准与社会影响的工作,以及美欧贸易和技术理事会(TTC)的相关工作。
在接下来的数月内,该论坛将首先建立起一个顾问委员会,以帮助指导论坛的战略和优先事项。声明称,该委员会将“代表不同的背景和观点”。在未来几周内,还将与民间社会和各国政府,就论坛的设计与合作方式展开磋商。
未来一年,前沿模型论坛将重点关注确定最佳做法、推动AI安全研究、促进企业与政府间信息共享等三个关键领域,并欢迎其他前沿AI模型开发者加入论坛。
标签: