2024-07-23 02:32来源:本站

一位著名科学家和人工智能活动人士警告称,大型科技公司已成功地将世界的注意力从人工智能仍对人类构成的生存风险上转移开。
马克斯·泰格马克在韩国首尔举行的人工智能峰会上接受《卫报》采访时表示,将焦点从生命灭绝转移到更广泛的人工智能安全概念上,可能会导致对最强大程序的创造者实施严格监管的不可接受的延迟。
“1942年,恩里科·费米(Enrico Fermi)在芝加哥足球场下建造了有史以来第一个具有自持链式核反应的反应堆,”接受过物理学家培训的泰格马克说。“当当时的顶级物理学家发现这一点时,他们真的吓坏了,因为他们意识到制造核弹的最大障碍已经被克服了。他们意识到这只需要几年时间——事实上,随着1945年的三位一体试验,这只需要三年时间。
“能够通过图灵测试的人工智能模型(在这种测试中,人们无法分辨出他们不是在和另一个人说话)同样是对你可能失去控制的人工智能的警告。这就是为什么像Geoffrey Hinton和Yoshua Bengio这样的人,甚至很多科技公司的首席执行官,至少在私下里,现在都吓坏了。”
基于这些担忧,Tegmark的非营利机构生命未来研究所(Future of Life Institute)去年带头呼吁,将先进的人工智能研究“暂停”6个月。他说,OpenAI当年3月推出的GPT-4模型是煤矿中的金丝雀,证明了这种风险接近得令人无法接受。
尽管包括Hinton和Bengio在内的专家签署了数千个签名,但没有人同意暂停。Hinton和Bengio是人工智能的三位“教父”中的两位,他们开创了今天支撑该领域的机器学习方法。
相反,人工智能峰会引领了新兴的人工智能监管领域。首尔峰会是继去年11月在英国布莱切利公园(Bletchley Park)举行之后的第二届峰会。“我们希望那封信能使谈话合法化,对结果感到非常高兴。一旦人们看到像本吉奥这样的人很担心,他们就会想,‘我担心也没关系。“在那之后,就连加油站的那个家伙也对我说,他担心人工智能会取代我们。
“但现在,我们需要从只说到做到。”
然而,自布莱切利公园峰会最初宣布以来,国际人工智能监管的重点已从生存风险转移。
在首尔,三个“高层”小组中只有一个直接讨论了安全问题,它研究了“全方位”的风险,“从隐私泄露到就业市场中断,再到潜在的灾难性后果”。泰格马克认为,淡化最严重的风险是不健康的——也不是偶然的。
“这正是我预测行业游说会发生的事情,”他说。“1955年,第一篇期刊文章发表,说吸烟会导致肺癌,你会认为很快就会有一些规定。但事实并非如此,直到1980年才发生,因为工业的巨大推动分散了人们的注意力。我觉得这就是现在正在发生的事情。
“当然,人工智能也会造成当前的危害:存在偏见,它会伤害边缘群体……但就像(英国科技大臣)米歇尔·多尼兰(Michelle Donelan)自己所说的那样,我们并不是不能同时应对这两个问题。”这有点像说,‘让我们不要关注气候变化,因为今年会有飓风,所以我们应该只关注飓风。’”
泰格马克的批评者对他自己的说法提出了同样的论点:该行业希望每个人都谈论未来的假设风险,以分散对当前具体危害的注意力,泰格马克驳斥了这一指控。“即使你从它本身的优点来考虑,它也是相当复杂的:对于像(OpenAI老板)Sam Altman这样的人来说,为了避免监管,告诉所有人它可能会让所有人都陷入困境,然后试图说服像我们这样的人敲响警钟,这就像4D象棋一样。”
相反,他认为,一些科技领袖的沉默支持是因为“我认为,他们都觉得自己陷入了一个不可能的境地,即使他们想停下来,也做不到。”如果一家烟草公司的首席执行官某天早上醒来,觉得自己做的不对,会发生什么?他们要换掉CEO。因此,安全第一的唯一办法就是政府为每个人制定安全标准。”