2024-08-16 07:50来源:本站
一群人工智能揭发者声称,像谷歌和ChatGPT的创造者OpenAI这样的科技巨头陷入了一场鲁莽的竞赛,开发可能危及人类的技术,并在周二的一封公开信中要求“有权警告”公众。
这封由OpenAI、谷歌深度思维(Google DeepMind)和Anthropic的现任和前任员工签署的公开信警告称,“人工智能公司有强大的财务动机来逃避有效监管”,并指出缺乏开发先进人工智能的联邦法规。
这些工作人员指出了潜在的风险,包括错误信息的传播、不平等的加剧,甚至“失去对自主人工智能系统的控制,可能导致人类灭绝”——尤其是在OpenAI和其他公司追求所谓的高级通用智能的情况下,这种智能的能力与人类的思维相当或超过人类的思维。
5
公开信的组织者之一、前OpenAI员工丹尼尔·科科塔伊洛(Daniel Kokotajlo)在一份声明中说:“公司正在竞相开发和部署更强大的人工智能,无视人工智能的风险和影响。”“我决定离开OpenAI,因为我对他们会采取负责任的行动失去了希望,尤其是在他们追求人工通用智能的时候。
Kokotajlo补充说:“他们和其他人已经接受了‘快速行动,打破常规’的方法,这与如此强大而又知之甚少的技术所需要的相反。”
据最早报道这封信的《纽约时报》报道,科科塔伊洛于2022年加入OpenAI,担任研究人员,专注于绘制人工智能的发展图表,并于今年4月离职。科科塔伊洛认为,未来先进的人工智能毁灭或严重伤害人类的可能性高达70%。
他认为,到2027年,研究人员实现通用人工智能的可能性为50%。
这封信得到了被称为“人工智能教父”的两位著名专家的支持——杰弗里·辛顿(Geoffrey Hinton)和加拿大计算机科学家约书亚·本吉奥(Yoshua Bengio)。辛顿去年曾警告说,流氓人工智能对人类的威胁比气候变化“更紧迫”。著名的英国人工智能研究员斯图尔特·罗素也支持这封信。
这封信要求人工智能巨头承诺遵守四项原则,以提高透明度并保护公开发言的举报人。
其中包括一项协议,不对公开谈论安全问题的员工进行报复,并支持建立一个匿名系统,让举报人提醒公众和监管机构注意风险。
5
人工智能公司还被要求允许一种“公开批评的文化”,只要不披露商业秘密,并承诺不签订或执行非贬低协议或保密协议。
截至周二上午,共有13名人工智能工作者签署了这封信。其中11人以前或现在受雇于OpenAI,包括Kokotajlo、Jacob Hilton、William Saunders、Carroll Wainwright和Daniel Ziegler。
桑德斯说:“应该有办法与独立专家、政府和公众分享风险信息。”“如今,由于可能遭到报复和过于宽泛的保密协议,最了解前沿人工智能系统如何工作以及部署相关风险的人并不能完全自由地发表言论。”
5
其他签署人包括前谷歌DeepMind员工拉玛娜·库马尔和现任员工尼尔·南达,他曾在Anthropic工作。
当被联系到发表评论时,OpenAI的一位发言人表示,该公司有一个可靠的记录,即在必要的保障措施到位之前不会发布人工智能产品。
OpenAI在一份声明中表示:“我们为自己提供最强大、最安全的人工智能系统的记录感到自豪,并相信我们解决风险的科学方法。”
5
“我们同意,考虑到这项技术的重要性,严格的辩论是至关重要的,我们将继续与世界各地的政府、民间社会和其他社区合作,”该公司补充说
谷歌和Anthropic没有立即回复置评请求。
就在这封信发表的几天前,有消息称OpenAI解散了其“超级联盟”安全团队,该团队的职责包括为“可能导致人类丧失权力甚至灭绝”的先进通用智能(AGI)系统制定安全措施。
订阅我们的每日商业报告时事通讯!
两名OpenAI高管,联合创始人Ilya Sutskever和Jan Leike已经从公司辞职。Leike在离开时猛烈抨击了公司,声称安全“让位于闪亮的产品”。
另外,OpenAI前董事会成员海伦·托纳(Helen Toner)声称,在她任职期间,奥特曼多次撒谎。去年,她所在的组织曾短暂成功地将公司首席执行官萨姆·奥特曼(Sam Altman)赶下了台。
托纳声称,她和其他董事会成员并没有从奥特曼那里得知ChatGPT于2022年11月推出,而是在Twitter上发现了它的首次亮相。
5
此后,OpenAI成立了一个新的安全监督委员会,其中包括奥特曼,该委员会开始培训为ChatGPT提供动力的新版人工智能模型。
该公司反驳了托纳的指控,指出外部审查已经确定安全问题不是奥尔特曼被解雇的一个因素。