监管机构称人工智能生成的儿童性虐待图像已达到“临界点”
据安全监管机构称,人工智能工具生成的儿童性虐待图像在开放网络上越来越普遍,并已达到“临界点”。
互联网观察基金会表示,过去六个月内,它在网上看到的人工智能制作的非法内容数量已经超过了去年的总量。
该组织运营着一条英国热线,但也有全球职责,它表示,几乎所有内容都是在互联网的公共区域发现的,而不是在暗网上,暗网必须通过专门的浏览器访问。
IWF 的临时首席执行官 Derek Ray-Hill 表示,图像的复杂程度表明所使用的人工智能工具已经接受过真实受害者图像和视频的训练。“最近几个月的情况表明,这个问题并没有消失,事实上正在恶化,”他说。
据一位 IWF 分析师称,人工智能生成内容的情况已达到“临界点”,安全监管机构和当局不知道图像中是否涉及需要帮助的真正儿童。
今年 9 月之前的六个月中,IWF 针对 74 起人工智能生成的儿童性虐待材料 (CSAM) 报告采取了行动,这些材料逼真到足以违反英国法律,而截至 3 月的 12 个月中,这一数字为 70 起。一份报告可能涉及包含多张图片的网页。
除了以现实生活中的虐待受害者为特色的人工智能图像外,IWF 看到的材料类型还包括“深度伪造”视频,其中成人色情内容被处理成类似于 CSAM。在之前的报告中,IWF 表示,人工智能被用来创建名人图像,这些名人被“减龄”,然后在性虐待场景中被描绘成儿童。所见的其他 CSAM 示例包括使用人工智能工具“裸体化”在线找到的穿着衣服的儿童照片的材料。
过去六个月,IWF 标记的人工智能生成内容中,超过一半托管在俄罗斯和美国的服务器上,日本和荷兰也托管了大量内容。包含图像的网页地址被上传到 IWF 的 URL 列表中,该列表与科技行业共享,以便屏蔽和使它们无法访问。
IWF 表示,10 起非法人工智能制作图像的报告中,有 8 起来自公众,他们在论坛或人工智能画廊等公共网站上发现了这些图像。
与此同时,Instagram 宣布了新的措施来打击性勒索,即用户被诱骗向犯罪分子发送私密照片,这些犯罪分子通常假扮年轻女性,然后受到勒索威胁。
该平台将推出一项功能,对用户在私信中收到的任何裸照进行模糊处理,并敦促他们谨慎发送任何包含裸照的私信 (DM)。一旦收到模糊图像,用户可以选择是否查看,他们还会收到一条消息,提醒他们可以选择屏蔽发件人并向 Instagram 报告聊天内容。
从本周开始,该功能将默认在全球青少年账户中启用,可用于加密消息,但“设备检测”功能标记的图像不会自动通知平台本身或当局。
对于成年人来说,这将是一项可选功能。 Instagram 还将向潜在的性勒索骗子隐藏关注者和关注者列表,这些骗子已知会威胁向这些账户发送私密照片。