ITCOW牛新网 1月17日消息,在人工智能领域持续领跑的OpenAI,近日宣布了一项新举措:成立“Collective Alignment”团队(中文直译:集体对齐)。该团队的核心任务是设计一个系统,能够收集并整合公众对AI模型行为的看法,以期未来的人工智能模型在行为上能更好地与人类价值观保持一致。
新团队的组建,标志着OpenAI在人工智能治理方面迈出了重要一步。该团队将由研究人员和工程师组成,他们将致力于开发一种新型的系统,该系统能够“编码”公众对AI模型行为的看法,并将这些见解应用于产品的改进和服务中。
OpenAI表示,这一举措是其去年启动的公共项目的延伸,该项目旨在通过资助建立一个“民主程序”的实验,来确定人工智能系统应遵循的规则。新团队的成立,不仅体现了OpenAI对人工智能治理问题的重视,也展示了其在推动人工智能技术发展的同时,积极探索如何确保技术与社会价值观相协调的努力。
值得注意的是,OpenAI正在积极招募具有不同技术背景的研究工程师加入这个新团队。他们将与外部顾问和其他团队紧密合作,共同推进这一项目的发展。此外,OpenAI还在考虑与Worldcoin等项目进行合作,以确保只有人类才能参与投票和提供意见,从而增强系统的民主性和透明度。
自推出ChatGPT以来,OpenAI的生成式人工智能技术备受瞩目。然而,随着技术的快速发展,人工智能在创造“深度伪造”图片和其他错误信息方面的能力也引发了人们的担忧。批评人士指出,像ChatGPT这样的人工智能系统可能由于其输入数据的影响而具有固有的偏见。因此,OpenAI的“集体对齐”团队的工作显得尤为重要。
通过收集和整合公众的意见,OpenAI希望能够训练和塑造其人工智能模型的行为,从而解决潜在的偏见和其他问题。这将有助于确保人工智能技术在发展的同时,也能够更好地符合社会的期望和需求。
尽管OpenAI的这一举措受到了一定的关注和期待,但也有人对其提出质疑。考虑到OpenAI的首席执行官对欧盟人工智能监管的批评态度,一些人认为OpenAI可能难以真正做到将商业利益与社会责任相分离。然而,无论如何,OpenAI的这一尝试都为我们提供了一个新的视角来思考和探讨人工智能的治理问题。