» 您尚未登录:请 登录 | 注册 | 标签 | 帮助 | 小黑屋 |


 19 12
发新话题
打印

苹果放弃了扫描手机上儿童色情的 CSAM 计划

posted by wap, platform: iPhone
引用:
原帖由 @你才是受  于 2022-12-8 18:11 发表
你怎么判定练不练?我家的娃一两岁的视频,很多就是小jj到处露出的
苹果这个不是AI识别到儿童裸露就上报

而是已经有一个被判定为儿童色情图片的数据库,只有你手机里的照片被判定为属于这个数据库才会触发上报


但是这个行为有两个关键点
第一这个扫描是不是侵犯隐私,目前肯定是侵犯了,这种隐私并不是每个人都愿意度让的,而且打击儿童色情,是不是必须如此,是有争议的

第二所有系统都不是100%不出错,出错之后就涉及了人类审核,而如何保证在人类审核这个环节,依然具有良好健全的隐私保护以及统一的道德底线,就很难。最简单的例子国内各种弱智审核导致很多正常内容也不能以正常的形式播放。此外苹果也曝光过siri的语音口令在没有经过用户知晓的情况下转给人工处理(虽然其他厂家都这么做),照片包含的信息量更大也更隐私,然后有可能随机会发给别人审核,这种时候恐怕就绝大多数人都不愿意

说到底这个行为与苹果一贯宣传的注重隐私背道而驰

本帖最后由 一只纯猪头 于 2022-12-11 10:36 通过手机版编辑


TOP

引用:
原帖由 trashman 于 2022-12-8 17:22 发表
posted by wap, platform: iPhone
其他价值观不说,炼铜就应该强制重罚。

本帖最后由 trashman 于 2022-12-8 17:23 通过手机版编辑  
重罚是政府该做的事,不是企业该做的事



TOP

引用:
原帖由 一只纯猪头 于 2022-12-11 10:33 发表
posted by wap, platform: iPhone
苹果这个不是AI识别到儿童裸露就上报

而是已经有一个被判定为儿童色情图片的数据库,只有你手机里的照片被判定为属于这个数据库才会触发上报


但是这个行为有两个关键点
第 ...
说到关键处了,本质上就是放弃保护用户隐私


TOP

posted by wap, platform: iPhone
引用:
原帖由 @ydy135  于 2022-12-11 10:40 发表
重罚是政府该做的事,不是企业该做的事
难道苹果罚你钱吗?
不要太文化……

TOP

 19 12
发新话题
     
官方公众号及微博