人工智能的真正幻觉问题

2024-08-15 08:39来源:本站

  

  

  两年前,OpenAI发布了DALL-E 2的公开测试版,这是一个图像生成工具,它立即标志着我们进入了一个新的技术时代。经过大量数据的训练,dall - e2产生了令人不安的、令人愉快的、经常出乎意料的输出;我的推特上充斥着来自提示的图片,比如用覆盖着玉米片奶酪的牙刷刷牙的特写照片。突然之间,机器似乎可以根据简单的提示创造出几乎任何东西。

  你可能知道这个故事:几个月后,ChatGPT出现了,数百万人开始使用它,学生论文被宣布死亡,Web3企业家几乎扭伤了脚踝,争先恐后地将公司转向人工智能,科技行业被炒作所吞噬。生成型人工智能革命正式开始。

  它给我们带来了什么?尽管狂热者热切地使用这项技术来提高生产力和自动化繁忙的工作,但它的缺点也不容忽视。Facebook等社交网络充斥着人工智能生成的奇葩图片;搜索引擎正在苦苦挣扎,试图为互联网上充斥着匆忙拼凑、聊天机器人撰写的文章建立索引。我们现在可以肯定的是,生成式人工智能未经许可就在受版权保护的媒体上进行了训练,这使得这项技术与有创意的人争夺工作和在线关注变得更加令人难堪;针对人工智能公司从互联网上搜集训练数据的强烈抵制正在全面展开。

  然而,这些公司在产品的成功和投资者资金的鼓舞下,对这些问题置之不理,对自己的技术抱着一种天命论的态度。毫无疑问,其中一些公司正试图通过尽其所能创造出像上帝一样的超级智能(也被称为人工通用智能,或AGI)来改写社会规则。其他人似乎对使用生成式人工智能来构建工具更感兴趣,这些工具可以在很少或没有引用的情况下重新利用他人的创造性工作。最近几个月,人工智能行业的领导者们更加肆无忌惮地对未来表现出一种家长式的态度——包括谁会赢(那些接受他们技术的人),谁会落后(那些不接受他们技术的人)。他们没有问我们;题目告诉我们。正如记者乔斯·方(Joss Fong)最近评论的那样,“加州正在发生一场大胆的危机。”

  这里有一些实质性的问题需要解决。为了推进一项让人们吃石头的技术而大规模破坏你的净零气候承诺是大胆的,但根据谷歌最新的环境报告,谷歌似乎正是这么做的。(谷歌发言人科瑞娜·斯坦福(Corina stanford)在一份电子邮件声明中表示,该公司仍然“致力于实现我们设定的可持续发展目标”,包括到2030年实现净零排放。根据该报告,2023年,其排放量增长了13%,这在很大程度上是因为生成式人工智能的能源需求。)对于像Perplexity这样的公司来说,使用第三方工具来收集信息,而忽视长期存在的防止网站被抓取和内容被盗的在线协议,无疑是大胆的。

  但我发现人工智能领导者的言辞尤其令人恼火。本月,OpenAI首席执行官萨姆?奥特曼和Thrive Global首席执行官阿里安娜?赫芬顿宣布,他们打算打造一个人工智能健康教练。两人明确地将他们不存在的产品与新政相提并论。(他们表示,他们的产品——太理论化了,他们无法告诉我它是否会成为一款应用——可能会很快成为医疗系统关键基础设施的一部分。)但这种大胆并不仅仅是浮夸的新闻发布。上个月,OpenAI的首席技术官米拉·穆拉蒂(Mira Murati)在达特茅斯学院(Dartmouth College)接受采访时谈到了人工智能对劳动力的影响,她说,由于人工智能的生成,“一些创造性的工作可能会消失,但也许它们一开始就不应该出现。”她后来补充说,“严格重复”的工作也可能会被裁员。她的坦率似乎象征着OpenAI的使命,直截了当地寻求开发一种能够“涡轮增压全球经济”的智能。她的话表明,那些可以被取代的工作不仅不值得:它们根本就不应该存在。在技术变革的漫长轨迹中,这可能是真的——电梯、交通信号和电话的人类操作员最终让位于自动化——但这并不意味着几个行业同时发生灾难性的失业在经济上或道德上是可以接受的。

  按照这些思路,奥特曼表示,生成式人工智能将“创造全新的就业机会”。其他科技支持者也表达了同样的看法。但如果你仔细听,他们的语言是冷酷而令人不安的,提供了对这些人所重视的劳动类型的洞察,延伸开来,他们不重视的劳动类型。奥特曼曾谈到,人工智能可能会取代“中等人类”工人的劳动——给人的印象是,我们中最不例外的人可能会以进步的名义被牺牲。

  甚至一些业内人士也对那些负责这项技术未来的人发出了警告。上个月,OpenAI前员工利奥波德·阿森布伦纳(Leopold Aschenbrenner)写了一篇165页的系列文章,警告读者旧金山正在建设什么。阿森布伦纳今年因泄露公司信息而被解雇,他写道:“几乎没有人对即将发生的事情有丝毫的预感。”在阿森布伦纳看来,他和“可能有几百人,其中大多数在旧金山和人工智能实验室”,拥有“态势感知”来预测未来,这将以AGI的到来、地缘政治斗争以及激进的文化和经济变革为标志。

  Aschenbrenner的宣言是一份有用的文件,它阐明了这项技术的架构师如何看待自己:一小群人通过他们的智慧、技能和命运联系在一起,帮助决定未来的形态。然而,阅读他的论文不是感到FOMO,而是感到疏离感。他描绘的文明斗争与我们其他人看到的人工智能几乎没有相似之处。“世界的命运取决于这些人,”他在谈到硅谷构建人工智能系统的团队时写道。这不是号召行动或建议投入;这是谁说了算的声明。

  与我不同的是,阿森布伦纳相信超级智能即将到来,而且很快就会到来。他的论文包含了相当多的关于人工智能模型从现在开始大幅改进的潜力的宏伟猜测。(怀疑论者强烈反对这一评估。)但他主要担心的是,太少的人掌握了太多的权力。最近,当我问他为什么要写这篇论文时,他对我说:“我不认为这只是一个小团体在开发这项技术。”

  他说:“作为这个团队的一员,我感到有一种责任感,要告诉人们他们在想什么。”他指的是那些认为自己即将实现AGI的人工智能公司的领导者。“再说一次,他们可能是对的,也可能是错的,但人们应该听到这些。”在我们的谈话中,我发现了一个意想不到的共同点:无论你认为人工智能高管是在妄想,还是真的处于构建超级智能的边缘,你都应该担心他们积累了多少权力。

  拥有一批雄心勃勃的建设者是一个健康进步的社会的一部分。从本质上讲,伟大的技术专家充满了一种大胆的精神,可以推动可能的界限-这对人类来说确实是一件非常好的事情。这并不是说这项技术毫无用处:人工智能无疑具有变革潜力(例如,预测蛋白质如何折叠是一个真正的启示)。但是,当建设者脱离现实,或者当他们的傲慢使他们相信,他们有权将自己的价值观强加给我们其他人,作为建造上帝的回报,大胆可能很快就会变成一种负担。

  一个行业就是它所生产的东西,在2024年,这些行政声明和厚颜无耻的行动加在一起,是人工智能行业在其最新革命两年后的实际状况。世界末日的景象,超级智能的迫近本质,以及人类未来的斗争——所有这些叙述都不是事实,而是假设,无论多么令人兴奋、可怕或可信。

  当你抛开所有这些,专注于真正存在的东西和真正说的东西时,信息很清楚:这些公司希望自己“和平地扩大规模”,这是一家新的人工智能公司SSI在宣布公司使命时毫无自觉地使用的一句话。SSI是由伊利亚·苏斯克维尔(Ilya Sutskever)共同创立的,他曾是OpenAI的首席科学家。(当然,“SSI”代表“安全的超级智能”。)要做到这一点,他们需要征用所有的创意资源,甚至是整个互联网。利害关系要求这样做。我们相信他们会安全地构建这些工具,负责任地实施它们,并分享他们创造的财富。我们应该相信他们的价值观——关于有价值的劳动和应该存在的创造性追求——因为他们以自己的形象重塑了世界。我们要相信他们,因为他们很聪明。我们要相信他们,因为他们用一项技术实现了全球规模,他们说这项技术将是人类历史上最具破坏性的技术之一。因为他们看到了未来,因为历史把他们送到了这个社会的枢纽,把雄心和才能与足够的原始计算能力结合起来,创造了上帝。否认他们的这一权利是鲁莽的,也是徒劳的。

  因此,生成式人工智能的主要输出可能不是杂乱的图像、语音克隆或无聊的聊天机器人废话,而是不劳而获的、有资格的大胆。另一个人工智能产生幻觉的例子——不是在机器上,而是在制造它们的人身上。

喜临门声明:未经许可,不得转载。