9月20日消息,美国人工智能研究机构OpenAI日前宣布了一项重要举措,他们正式推出了“红队网络”,并积极邀请各行各业的专家参与,以提升其人工智能(AI)模型的安全性。
OpenAI之前虽然通过漏洞赏金计划和研究人员访问计划与外部专家有所合作,但新推出的“红队网络”将这一合作关系正式制度化。这个新网络的目标是深化OpenAI与外部专家的合作,确保其AI模型的可靠性和安全性。
这个“红队网络”由一群经验丰富且可信赖的专家组成,他们将协助OpenAI评估和降低模型潜在的风险,帮助提高OpenAI的AI系统的鲁棒性。这意味着专家们将在AI模型部署之前,以持续的方式参与风险评估,而不仅仅是一次性的参与和选择。
报道指出,“红队”在识别AI系统中的偏见和评估安全过滤器方面发挥着关键作用,这在当前广泛采用生成式技术的情况下尤为重要。OpenAI特别邀请了来自不同领域的专家,包括语言学、生物识别、金融和医疗保健等领域的专家。他们强调了不同领域专业知识对于评估人工智能的重要性,这将确保专业知识在评估AI系统时得到充分应用,以确保其安全性和可靠性。
这一举措旨在增强AI系统的安全性,引入了多领域专业知识,从而提高了评估过程的多样性和深度。通过与外部专家的合作,OpenAI致力于确保其AI技术的可持续发展和安全性。