» 您尚未登录:请 登录 | 注册 | 标签 | 帮助 | 小黑屋 |


发新话题
打印

苹果放弃了扫描手机上儿童色情的 CSAM 计划

posted by wap, platform: iPhone
去年八月,苹果宣布了一项受争议的决定:它将扫描美国用户 iPhone 手机上的已知儿童色情照片,利用来自 National Center for Missing and Exploited Children (NCMEC)的 CSAM(Child Sexual Abuse Material)图像哈希值去匹配用户手机上的图像哈希,如果发现至少 30 次匹配成功它将会在审核之后报告给相关机构。在引发广泛批评和反对之后,苹果暂停了该计划。现在它放弃了扫描手机上儿童色情的计划,改为加强“Communication Safety”功能,允许父母和看护者通过家庭 iCloud 账号选择加入保护功能,以确保儿童的通信安全,在儿童试图发送或接收含有裸体的照片时发出警告,阻止和减少新 CSAM 的产生。

https://www.wired.com/story/apple-photo-scanning-csam-communication-safety-messages/


TOP

posted by wap, platform: iPhone
引用:
原帖由 @ydy135  于 2022-12-8 16:25 发表
一个企业一旦把价值观强加在用户身上,就是悲剧的开始
而且苹果在欧美和中国的政策明显是相反的,婊子还想立牌坊,虚伪至极。



TOP

posted by wap, platform: iPhone
引用:
原帖由 @御迦  于 2022-12-9 02:10 发表
https://m.weibo.cn/detail/4844423932284795
以后可能有点难度
苹果在土朝乖得很


TOP

发新话题
     
官方公众号及微博