苹果公司推出新功能,允许澳大利亚儿童直接报告不当图像内容
英文: Vivo S20 Series is Coming Soon: Thin and Light with a Large Battery and Upgraded Imaging Features
苹果公司推出新功能,允许澳大利亚儿童直接报告不当图像内容作为 iOS 18.2 测试版的一部分,苹果公司推出了一项新功能,允许澳大利亚的儿童直接向苹果公司报告不当内容。这一功能扩展了 iOS 17 中包含的安全措施,这些措施可以自动检测 iMessage、AirDrop、FaceTime 和照片中包含裸露内容的图片和视频
苹果公司推出新功能,允许澳大利亚儿童直接报告不当图像内容
作为 iOS 18.2 测试版的一部分,苹果公司推出了一项新功能,允许澳大利亚的儿童直接向苹果公司报告不当内容。这一功能扩展了 iOS 17 中包含的安全措施,这些措施可以自动检测 iMessage、AirDrop、FaceTime 和照片中包含裸露内容的图片和视频。
此前,当系统检测到 CSAM 警告时,用户会看到两个包含干预措施的弹出窗口。这些窗口会解释如何与当局联系,并建议儿童告诉他们的父母或监护人。而现在,当检测到裸体等不适当内容时,会出现一个新的弹出窗口,允许用户直接向苹果公司报告图片和视频。苹果公司随后会将这些信息发送给有关部门。
当警告出现时,用户的设备会自动准备一份报告,其中包括任何攻击性材料、材料前后发送的信息以及两个账户的联系信息。用户可以选择填写一份表格,描述事件发生的经过。苹果公司收到报告后,会对内容进行审查,并采取措施,例如禁用用户通过 iMessage 发送信息的功能,并将该问题报告给执法部门。
这项功能目前作为 iOS 18.2 测试版的一部分在澳大利亚推出,预计将在未来推广至全球。据《卫报》报道,苹果公司可能选择在澳大利亚率先推出这项功能,因为该国将要求公司在 2024 年底之前对云消息服务中的虐待儿童和恐怖内容进行监管。苹果公司对此表示担忧,认为这项法案会削弱端到端加密,使用户的通信更容易受到大规模监控。自 2018 年年底以来,苹果公司一直公开反对此类监管措施。
苹果公司在平台上处理儿童性虐待材料 (CSAM) 的方式一直备受争议。起初,该公司被指责没有认真对待 CSAM 保护问题,引发了众多监督团体的批评。2021 年,苹果公司计划推出 CSAM 保护措施,通过扫描用户 iCloud 照片中的已知 CSAM 图像来进行识别。如果发现 CSAM 图像,苹果公司会对其进行审查,并将报告发送至国家失踪与被剥削儿童中心 (NCMEC)。
然而,许多用户对苹果公司扫描其私人物件图像和视频的做法表示强烈反对,他们担心自己会被误判。最终,苹果公司放弃了这项计划,理由是担心扫描数据“可能会为数据窃贼发现和利用新的威胁载体”。
2024 年,英国国家防止虐待儿童协会 (NSPCC) 表示,在英国的苹果平台上发现的虐待图片案例比苹果公司在全球范围内报告的案例还要多。这表明,苹果公司在打击儿童性虐待材料方面依然面临着巨大的挑战,需要不断改进其平台的安全措施,以保护儿童免受伤害。
英文: Vivo S20 Series is Coming Soon: Thin and Light with a Large Battery and Upgraded Imaging Features
标签: 苹果 公司 推出 新功能 允许 澳大利亚 儿童 直接 报告
声明:本文内容来源自网络,文字、图片等素材版权属于原作者,平台转载素材出于传递更多信息,文章内容仅供参考与学习,切勿作为商业目的使用。如果侵害了您的合法权益,请您及时与我们联系,我们会在第一时间进行处理!我们尊重版权,也致力于保护版权,站搜网感谢您的分享!