ITCOW牛新网12月19日消息,在AI技术迅速发展的今天,关于其潜在风险的讨论在科技界愈发激烈。

近日,来自OpenAI、谷歌和微软的顶尖AI专家发出警告,声称生成式AI技术可能构成对人类生存的重大威胁,与流行病和核武器的危险性相当。然而,一些AI研究人员认为,过分关注这些遥远的巨大风险可能会忽视AI技术当前已经带来的潜在危害。与此同时,AI商业界领袖们则认为,对这些风险的担忧被过度夸大,他们主张公司应继续推动技术发展以造福社会并从中获益。

monitor screen with openai logo on white background
Photo by Andrew Neel on Pexels.com

OpenAI在这场辩论中采取了一种更加中立的立场。其首席执行官萨姆・阿尔特曼(Sam Altman)承认该技术存在严重的长期风险,同时呼吁人们关注并解决当前面临的问题。他还认为,监管措施不应阻碍小型公司在AI领域的竞争,并且他推动了公司技术的商业化以加快发展。

与此同时,资深AI研究人员马德里,曾在麻省理工学院负责可部署机器学习中心并共同领导麻省理工学院AI政策论坛。今年加入OpenAI后,他因阿尔特曼被董事会解雇而辞职,但在阿尔特曼复职后又回到了公司。他表示,尽管领导层经历了一些“动荡”,但他依然相信OpenAI董事会认真对待AI的风险。为了应对这些潜在风险,OpenAI的“防备”预警团队将招募来自国家安全等领域的专家,帮助公司了解如何应对重大风险,并已经开始与美国核安全局等机构进行接触,确保公司能够适当地研究AI的风险。该团队特别关注OpenAI技术可能导致的危险行为,如计算机入侵或制造化学、生物和核武器等。马德里表示,他正在寻找能够深入思考突破规则的人才。

此外,OpenAI在最近的一篇博客文章中提到,公司将允许来自OpenAI之外的“合格的独立第三方”测试其技术。马德里强调,他既不同意那些担心AI已超越人类智能的“末日论者”,也不同意那些希望消除所有AI发展障碍的“加速主义者”。他认为,AI技术拥有巨大潜力,但我们也需要努力确保这些潜力得以实现,并尽最大努力避免任何负面影响。