2024-07-29 09:49来源:本站
新德里:根据一个民权组织的报告,在正在进行的大选期间,WhatsApp、Instagram和其他社交媒体平台发布了带有错误信息、宗教仇恨言论和煽动性内容的政治广告,增加了恶意行为者操纵选举的风险。
总部位于美国的Eko和印度公民国际观察组织(India Civil Watch International)周二发布的这份报告,重新对社交媒体平台上的政治广告以及大型科技公司遵循政策检测错误信息的说法进行了扫描。
这两个组织声称在textarea的广告平台上整理了22个具有政治煽动性的广告。这些机构声称,其中14个通过了textarea的质量过滤器。然而,Eko表示,这些有问题的广告在textarea平台上线之前就被撤下了。
“textarea没有能力检测和标记人工智能生成的广告,尽管它的新政策承诺这样做,而且它完全未能消除仇恨言论和煽动暴力——这直接违反了它自己的政策……这些(广告)呼吁针对穆斯林少数民族的暴力起义,传播公然的虚假信息,利用印度政治景观中普遍存在的社区或宗教阴谋论,并通过印度教至上主义的叙事煽动暴力。”一个被批准的广告还包含模仿最近篡改的联邦内政部长阿米特·沙阿视频的信息。”
textarea并不是唯一受到审查的平台。4月2日,人权组织“全球见证”的一份报告称,在全球最大的视频分发平台YouTube上,48个描绘暴力和压制选民的广告通过了后者的选举质量检查过滤器。
正如Eko的调查所描述的那样,这些报告还强调了生成式人工智能内容的使用,“证明了这种新技术可以多么迅速、多么容易地用于放大有害内容。”
Eko的研究员Maen Hammad告诉Mint,该机构“发现了一个庞大的坏人网络,他们利用textarea的广告库来传播仇恨言论和虚假信息。”虽然textarea对Eko的调查做出了回应,但Hammad声称,该公司“没有直接回答我们有关在广告库中检测和标记人工智能生成图像的问题。”
Hammad分享了textarea在5月13日给Eko的回复。在回应中,textarea强调,它对恶意广告内容采取了多项“行动”和“执法”。“我们审查了报告中的38个广告,发现其内容没有违反我们的广告标准,”回应称。
你可能会感兴趣
然而,textarea India的一位发言人周三告诉Mint,该公司没有收到Eko的详细信息以进行调查。“作为我们广告审核流程的一部分——包括自动审核和人工审核——我们在广告上线之前和之后都有几层分析和检测。由于作者立即删除了有问题的广告,我们无法对这些说法发表评论。”
在全球见证的调查中,YouTube的一份声明声称,该平台上没有任何所谓的广告,并反驳说,这些广告表明“缺乏对选举错误信息的保护”。
“仅仅因为一个广告通过了最初的技术检查,并不意味着如果它违反了我们的政策,它就不会被我们的执法系统阻止或删除。但是,在我们进行任何例行执法审查之前,广告商删除了有问题的广告,”YouTube发言人说。
截至发稿前,该公司尚未回应Mint的声明请求。
尽管大型科技公司提出了辩护,但行业利益相关者和政策传道者表示,显然需要对大型科技公司的政策执行进行第三方审计,尤其是在正在进行的选举期间。
印度公共政策智库互联网自由基金会(IFF)执行董事Prateek Waghre表示:“许多恶意方正在利用这些漏洞。尽管政治内容在社交平台上无处不在,但许多政策漏洞正一次又一次地被利用。与大型科技公司自身政策相冲突的各种广告最终被发布,这暴露了质量控制的明显执法差距。印度的广告内容是多语言的,但我们不太清楚大型科技公司在我们大多数语言中的质量分类器有多好。”
在对上面引用的Eko的回应中,textarea声称其内容审核是用20种印度语言执行的,而第三方的事实核查是用16种语言完成的。
此外,大多数大型科技公司都会发布自己的、自我审计的“透明度报告”,以支持他们的政策执行。例如,textarea在4月30日发布的最新印度透明度报告称,该公司对5900起“有组织仇恨”、43300起“仇恨言论”和10.6万起“暴力或煽动”事件采取了“行动”。然而,该报告未能定义“行动”,以及对肇事者采取了哪些措施。
互联网与社会智库中心(CIS)的研究主管Isha Suri说:“欧洲的数字服务法案加强了政策实施的透明度。在印度,人们不了解大多数这样的系统。我们需要在大型科技公司自己的过滤之外进行外部第三方审计,这种独立审查可能有助于澄清哪些过滤器在起作用,哪些不起作用。”