2024-08-13 07:01来源:本站
周四,脸书母公司meta平台发布了一套新的人工智能系统,为首席执行官马克·扎克伯格所说的“你可以自由使用的最智能的人工智能助手”提供动力。
但是,随着扎克伯格的团队开始冒险进入社交媒体,与真实的人接触,他们奇怪的交流暴露了即使是最好的生成人工智能技术的局限性。
一位母亲加入了Facebook的一个妈妈小组,谈论她的天才孩子。还有人试图把不存在的东西送给“什么都不买”论坛的困惑成员。
meta与领先的人工智能开发商谷歌(Google)和OpenAI,以及Anthropic、Cohere和法国Mistral等初创公司一直在推出新的人工智能语言模型,并希望说服客户,他们拥有最聪明、最方便或最高效的聊天机器人。
meta AI是一款免费的虚拟助手,据该公司的博客介绍,它可以“做任何事情,从研究、和你的群聊计划旅行、写照片说明等等”。
要访问WhatsApp, Instagram, Messenger, Facebook上的聊天机器人,在聊天中输入“@meta ai”。元AI助手也可以通过点击一个彩色的蓝色圆圈图标来访问,这让你知道元AI在那里。
除了回答问题,元人工智能还可以创建人工智能生成的图像。使用提示“想象”,用户可以要求meta生成任何想到的图像。
当被要求“想象一只可爱的小猫”时,Instagram上的元人工智能助手制作了以下图片:
人工智能语言模型是在大量数据的基础上进行训练的,这些数据可以帮助它们预测句子中最可信的下一个单词,新版本通常比它们的前辈更聪明、更有能力。meta的最新模型由80亿个和700亿个参数组成,这是对系统训练数据量的衡量。一个更大的,大约有4000亿个参数的模型仍在训练中。
虽然meta将其最强大的人工智能模型Llama 3留到以后,但周四,该公司公开发布了两个较小版本的Llama 3系统,并表示它现在已经融入了Facebook、Instagram和WhatsApp的meta人工智能助手功能。
meta全球事务总裁尼克?克莱格(Nick Clegg)在接受采访时表示:“绝大多数消费者并不太了解或太关心底层的基本模型,但他们将体验到的是,它是一个更有用、更有趣、更多功能的人工智能助手。”
他补充说,meta的人工智能代理正在放松。他说,一些人发现,不到一年前发布的“美洲驼2”早期型号,“有时在对通常完全无害或无害的提示和问题不作出回应时,显得有点僵硬和虚伪”。
但在放松警惕的同时,meta的人工智能代理本周也被发现假扮人类,拥有虚构的生活经历。一个官方的元人工智能聊天机器人插入了曼哈顿妈妈们的一个私人Facebook群的对话,声称它也有一个在纽约市学区的孩子。据美联社(the Associated Press)看到的一系列截图显示,面对小组成员,该公司后来在评论消失前道歉。
“为这个错误道歉!”我只是一个大型语言模型,我没有经验,也没有孩子,”聊天机器人告诉大家。
一位恰好也在研究人工智能的小组成员表示,很明显,智能体不知道如何区分有用的回应和由人工智能而不是人类生成的回应,后者会被视为不敏感、不尊重或毫无意义。
普林斯顿大学(Princeton University)计算机科学助理教授亚历山德拉·科罗洛娃(Aleksandra Korolova)说:“一个不能提供可靠帮助的人工智能助手,可能会给使用它的人带来很大的负担。”
克莱格周三说,他不知道这一交易。Facebook的在线帮助页面表示,如果受到邀请,或者有人“在帖子中提出问题,但一小时内没有人回应”,元人工智能代理将加入群组对话。组的管理员可以关闭它。
在周四向美联社展示的另一个例子中,这名特工在波士顿附近的一个论坛上交换不想要的东西,造成了混乱。就在一名脸书用户发布寻找特定物品的帖子一小时后,一名人工智能代理提供了一台“用得很轻的”佳能相机和一台“我从未使用过的几乎全新的便携式空调”。
meta周四在一份书面声明中表示,“这是一项新技术,它可能并不总是返回我们想要的响应,这对所有生成式人工智能系统都是一样的。”该公司表示,它正在不断努力改进这些功能。
斯坦福大学(Stanford University)的一项调查显示,在ChatGPT引发了对人工智能技术的狂热之后的一年里,科技行业和学术界推出了大约149个大型人工智能系统,这些系统经过大规模数据集的训练,是前一年的两倍多。人工智能技术可以生成类似人类的文字、图像、代码和声音。
斯坦福大学以人为本的人工智能研究所的研究经理内斯特·马斯雷说,它们最终可能会达到极限——至少在数据方面是这样。
他说:“我认为,很明显,如果你在更多的数据上扩展模型,它们会变得越来越好。”“但与此同时,这些系统已经根据互联网上曾经存在的所有数据的百分比进行了训练。”
越来越多的数据——以只有科技巨头才能负担得起的成本获取和吸收,并且越来越多地受到版权纠纷和诉讼的影响——将继续推动改进。“然而他们仍然不能很好地规划,”Maslej说。“他们仍然会产生幻觉。他们仍然在推理上犯错误。”
要想让人工智能系统能够执行更高层次的认知任务和常识性推理——人类在这方面仍然优于计算机——可能需要超越构建更大模型的转变。
对于大量试图采用生成式人工智能的企业来说,他们选择哪种模式取决于几个因素,包括成本。尤其是语言模型,已经被用来为客户服务聊天机器人提供动力,撰写报告和财务见解,以及总结长文件。
毕马威(KPMG)技术咨询业务主管托德?洛尔(Todd Lohr)表示:“你会看到,企业在寻找合适的模式,针对自己想要做的事情测试每一种不同的模式,并找到在某些领域比其他领域更好的模式。”
与其他向其他企业出售人工智能服务的模型开发商不同,meta主要是为消费者设计其人工智能产品——那些使用其广告推动的社交网络的消费者。meta负责人工智能研究的副总裁乔尔?皮诺(Joelle Pineau)上周在伦敦的一次活动上表示,该公司的长期目标是让美洲豹驱动的meta人工智能成为“世界上最有用的助手”。
她说:“在很多方面,与五年后的模型相比,我们今天的模型将是小菜一碟。”
但她表示,“摆在桌面上的问题”是,研究人员是否能够对其更大的Llama 3模型进行微调,使其安全使用,不会产生幻觉或发表仇恨言论。与谷歌和OpenAI领先的专有系统相比,meta迄今为止一直主张采用更开放的方法,公开发布其AI系统的关键组件供其他人使用。
“这不仅仅是一个技术问题,”皮诺说。“这是一个社会问题。我们想从这些模型中得到什么样的行为?我们如何塑造它?如果我们在没有适当社会化的情况下继续发展我们的模式,使其变得更加普遍和强大,我们将面临一个大问题。”