我们能让人工智能摆脱偏见吗?

2024-08-16 16:03来源:本站

  

  旧金山:建立在大量可能存在偏见的信息基础上的人工智能造成了自动化歧视的真正风险,但有没有办法对机器进行再教育?

  对一些人来说,这个问题极其紧迫。在这个ChatGPT时代,人工智能将利用从互联网上搜索到的任何东西作为原始材料,为医疗保健提供者、银行贷款人或律师做出越来越多的决策。

  因此,人工智能的潜在智能只与它所来自的世界一样好,可能充满机智、智慧和有用性,也可能充满仇恨、偏见和咆哮。

  “这很危险,因为人们正在接受和采用人工智能软件,并真正依赖它,”法律咨询公司德克萨斯州机会与正义孵化器(Texas Opportunity & Justice Incubator)主任约书亚·韦弗(Joshua Weaver)说。

  他说:“我们可以进入这种反馈循环,在这种循环中,我们自己和文化中的偏见会影响人工智能的偏见,并成为一种强化循环。”

  确保技术更准确地反映人类多样性不仅仅是一个政治选择。

  人工智能的其他用途,如面部识别,已经让公司因歧视而与当局陷入困境。

  广告

  美国联邦贸易委员会(Federal Trade Commission)表示,美国连锁药店Rite-Aid的案例就是如此。该公司店内摄像头错误地将消费者,尤其是女性和有色人种,标记为商店扒手。

  “搞错了”

  专家们担心,chatgpt式的生成式人工智能可以在几秒钟内创造出类似人类水平的推理,这为犯错提供了新的机会。

  人工智能巨头们非常清楚这个问题,他们担心自己的模型可能会陷入不良行为,或者在用户群遍布全球的情况下过度反映西方社会。

  广告

  谷歌首席执行官桑达尔·皮查伊在解释为什么要求提供医生或律师的图像会努力反映种族多样性时说:“我们有来自印度尼西亚或美国的用户提出查询。”

  但这些考虑可能达到荒谬的程度,并导致对过度政治正确的愤怒指责。

  当谷歌的双子座图像生成器吐出一张二战德国士兵的图像时,就发生了这样的事情,其中荒谬地包括一名黑人男子和一名亚洲女子。

  “很明显,我们的错误在于我们过度申请了……这根本不应该适用。这是一个漏洞,我们弄错了。”

  广告

  但人工智能模型领先平台hug Face的研究科学家萨沙·卢奇奥尼(Sasha Luccioni)警告说,“认为存在解决偏见的技术方案已经走上了错误的道路。”

  她说,生成式人工智能本质上是关于输出是否“符合用户的期望”,这在很大程度上是主观的。

  Alembic Technologies的产品主管杰登·齐格勒(Jayden Ziegler)警告说,ChatGPT所依赖的庞大模型“无法推断出哪些是有偏见的,哪些是没有偏见的,因此它们对此无能为力”。

  至少现在,要靠人类来确保人工智能生成合适的或符合他们期望的东西。

  广告

  “根深蒂固”的偏见

  但考虑到人们对人工智能的狂热,这并非易事。

  “拥抱脸”平台上有大约60万个人工智能或机器学习模型。

  卢奇奥尼说:“每隔几周就会有一个新的模型出来,我们都在努力评估和记录偏见或不良行为。”

  广告

  正在开发的一种方法是一种叫做算法分解的方法,它允许工程师在不破坏整个模型的情况下删除内容。

  但人们严重怀疑这是否真的有效。

  另一种方法是“鼓励”一个模型朝着正确的方向发展,“微调”它,“奖励对的和错的”,Pinecone的首席技术官拉姆·斯里哈沙(Ram Sriharsha)说。

  Pinecone是检索增强生成(或RAG)的专家,这是一种模型从固定可信源获取信息的技术。

  广告

  在德克萨斯州机会与正义孵化器的韦弗看来,这些纠正偏见的“高尚”尝试是“我们对未来更美好版本的希望和梦想的投射”。

  但他说,偏见“也是人类固有的,正因为如此,它也融入了人工智能。”

喜临门声明:未经许可,不得转载。