2024-05-23 15:45来源:本站编辑
meta今天宣布,该公司将限制青少年观看涉及自杀、自残和饮食失调等主题的内容。meta说,这些内容可能不适合年轻人,即使是由青少年关注的人分享的,也不会被看到。
根据meta的说法,如果青少年在Facebook和Instagram上搜索这类内容,他们会被引导到“专家资源寻求帮助”,比如全国精神疾病联盟(National Alliance on Mental Illness)。青少年用户也可能不知道这些类别中的内容是否被共享,他们也无法看到。这一变化将在未来几个月推广到18岁以下的用户。
除了隐藏敏感类别的内容外,青少年账户还将默认设置限制性过滤设置,以调整他们在Facebook和Instagram上看到的内容类型。这一变化会影响搜索和探索中的推荐帖子,这些帖子可能是“敏感”或“低质量”的,meta会自动将所有青少年账户设置为最严格的设置,尽管这些设置可以由用户更改。
这些全面更新正值meta和其他科技公司在如何处理平台上的儿童问题上受到政府更严格的审查之际。在美国,meta首席执行官马克·扎克伯格和其他一些科技高管将于1月31日在参议院就儿童安全问题作证。这次听证会是在全国范围内试图限制儿童访问成人内容的立法浪潮之后举行的。
甚至在色情内容之外,议员们已经表示,他们愿意以保护儿童免受某些(合法)内容(比如与自杀或饮食失调有关的内容)的名义,对大量互联网内容进行年龄限制。例如,多年来一直有报道称,青少年的视频中充斥着有害内容。但是,除了平台认为值得信赖和可接受的内容之外,封锁所有内容可能会阻止年轻人获取其他教育或支持资源。
与此同时,在欧盟,《数字服务法案》要求包括meta和TikTok在内的大型科技公司对分享到其平台上的内容负责,并规定了算法透明度和广告定位。今年10月成为法律的英国《网络安全法》(online Safety Act)现在要求网络平台遵守儿童安全规定,否则将面临罚款。
《网络安全法》的目标是使英国成为“世界上网络最安全的地方”,但这项法律遭到了直言不讳的批评,称它可能侵犯用户隐私。例如,加密消息应用Signal表示,它宁愿离开英国,也不愿收集更多可能危及用户隐私的数据。