为阻击儿童色情,苹果公布了三项新功能
为了加强对儿童的维护,
苹果发布了三项新举措
:Messages 中的灵敏图画筛查、iCloud 中儿童性虐待内容检测,以及Siri和查找功用的相关内容协助支撑。在苹果的信息使用 Messages 中,假如家庭用户中的儿童收到或测验发送色情相片时,他们将看到一条正告信息。当孩子收到色情图片时,图片会变得含糊,Messages 使用会显现正告,称该图片「或许很灵敏」。假如孩子点击检查相片,那么他们将会看到一条弹出音讯,奉告他们为什么该图画被断定为灵敏。假如孩子决议检查图画,其设备相关的爸爸妈妈端将收到告诉,弹窗将包括一个带有协助信息的链接。
此外,假如孩子企图发送色情图片,他们会看到相似的正告。假如孩子挑选发送相片,爸爸妈妈能收到一条音讯。此功用适用于 13 岁以下的孩子。
苹果解说称,该功用是可选的。Messages 运用设备上的机器学习来剖析图画,并断定相片是否含有色情内容。

第二个是儿童性虐待内容 (CSAM)检测。苹果会扫描存储在 iCloud 云端中的这类图画,并向美国国家儿童失踪与受虐儿童协助中心(NCMEC)陈述实例。该公司会将NCMEC的数据库转换为一组不可读的哈希函数,之后进行比照。一旦匹配程度到达某一阈值,苹果将手动检查承认匹配,然后禁用帐户,并向NCMEC陈述。
最终,Siri和查找功用方面,苹果还经过供给额定资源协助儿童和爸爸妈妈保证网上安全,假如在不安全的时分可经过Siri和查找获取协助辅导。例如可问询Siri怎么陈述儿童性虐待内容,这些功用将奉告用户在哪能够报告给有关部门。

上述功用将首先在美国推出,本年晚些时分为 iOS 15、iPadOS 15和macOS Monterey 的 iCloud 家庭账户敞开。