ITCOW牛新网 5月28日消息,据彭博社报道,OpenAI近期成立一个新的董事会委员会,专注于评估其人工智能模型的安全性。这个新举措发生在公司解散内部安全团队和安全问题负责人离职后的几周内。

monitor screen with openai logo on black background
Photo by Andrew Neel on Pexels.com

此前,两位前董事会成员海伦・托纳(Helen Toner)和塔莎・麦考利(Tasha McCauley)在《经济学人》杂志上发表文章,对OpenAI的治理方式提出了批评。

新委员会将在90天内对OpenAI技术的保障措施进行评估,并提交报告。公司承诺,在董事会完成全面审查后,将以符合安全原则的方式公开分享采纳的建议。

同时,OpenAI还透露已经开始训练其最新的AI模型。去年秋天,OpenAI首席执行官萨姆・阿尔特曼(Sam Altman)与联合创始人兼首席科学家伊利亚・苏茨凯沃(Ilya Sutskever)在AI产品开发速度和限制危害措施上发生了冲突,导致阿尔特曼一度被罢免。

最近,苏茨凯沃和他的得力助手Jan Leike离开了公司。他们曾领导OpenAI的超智能体对齐团队(superalignment team),专注于研究超人类AI的长期威胁。Leike提到,他的部门在OpenAI内部在“争夺计算资源”方面遇到了困难。其他离职员工也表达了类似的意见。

苏茨凯沃离职后,OpenAI解散了他的团队,但表示这项工作将由研究部门和新任命的对齐科学负责人、联合创始人约翰・舒尔曼(John Schulman)继续进行。

值得注意的是,OpenAI上周取消了一项政策,该政策规定如果前员工批评公司,将取消其股票期权。

新成立的安全委员会由三位董事会成员和六名员工组成,包括董事长布雷特・泰勒(Bret Taylor)、Quora首席执行官亚当・德安杰洛(Adam D’Angelo)、索尼娱乐公司前高管妮可・塞利格曼(Nicole Seligman)、舒尔曼和阿尔特曼等。公司表示将继续咨询外部专家,包括国土安全部顾问罗布・乔伊斯(Rob Joyce)和前司法部官员约翰・卡林(John Carlin)。