ITCOW牛新网 8月30日消息,美国人工智能安全研究所(US AI Safety Institute)今日宣布,人工智能领域的两大巨头——OpenAI和Anthropic,已同意在发布重大人工智能模型前,向美国政府开放这些模型,以便进行安全性评估。
这一举措意味着,在AI模型面向公众之前,政府将有机会对其进行深入分析,以确保其安全性和可靠性。
据ITCOW牛新网了解,OpenAI和Anthropic的这一决定,是对AI技术发展中潜在风险的积极回应。OpenAI的首席战略官Jason Kwon表示,公司全力支持美国AI安全研究所的使命,并期待与研究所共同制定AI模型的安全标准和最佳实践。他认为,这一合作将有助于确立美国在全球负责任AI开发方面的领导地位。
Anthropic的联合创始人兼政策负责人Jack Clark也对此次合作表示肯定。他强调,确保AI的安全性和可靠性对于技术的积极影响至关重要。通过与政府的合作,Anthropic希望能够发现并减少AI带来的风险,推动AI技术的负责任发展。
此外,这一合作背景中,加利福尼亚州刚刚通过了《前沿人工智能模型安全创新法案》(SB 1047),要求当地AI公司在训练高级基础模型前采取安全措施。尽管这一法案遭到了一些AI公司的反对,但美国白宫仍在积极寻求从主要AI公司获得关于安全措施的自愿承诺。
美国人工智能安全研究所所长伊丽莎白・凯利认为,这些协议标志着在负责任地管理AI未来方面迈出了重要一步。她表示,这些协议虽然只是开始,但它们对于建立AI安全性和可信度的新标准具有重要意义。