Apple打击儿童色情,欲推《neuralMatch》分析工具,引爆iCloud, iOS隐私权争议!

原汁原味的内容在这里 身为一线的智慧型装置领导品牌,苹果的一举一动都是媒体关注的焦点,日前Apple对外宣布,未来装置会透过更新导入neuralMatch客户端的分析工具,可让Apple扫描存储在客户

图片1

原汁原味的内容在这里

身为一线的智慧型装置领导品牌,苹果的一举一动都是媒体关注的焦点,日前Apple对外宣布,未来装置会透过更新导入neuralMatch客户端的分析工具,可让Apple扫描存储在客户端的iCloud和iOS设备上的照片,藉此打击儿童色情、甚至是儿童性虐待等素材,简单来说,neuralMatch将扫描用户上传到 iCloud 照片的任何照片、图片,并与现有儿童色情数据库比对,若有出现匹配的情况,将会通知相关单位进行处理。

为了打击儿童色情,Apple对外宣布未来的安全更新,将允许Apple扫描上传到 iCloud的所有图像,并标记任何与 NCMEC的儿童性虐待材料 (CSAM) 数据库中、已知图片匹配的影像

图片2

但这个举动,让很多家长反弹,因为生儿育女的过程中,一定会为宝贝拍摄很多的照片或者影片,其中尔偶也会出现小孩穿着内裤、或者光屁股的照片,这样是否会被有心人士拿来利用举报呢?

图片3

苹果表示,他们是根据「美国非营利组织国家失踪和受虐儿童中心」,目前所收集的大约20万张性侵等照片进行比对,只要用户上传到iCloud的每张照片都会得到一张“安全凭证”,上面写着是否可疑,一旦有一定数量的照片被标记为可疑,就会启动解密所有照片,如果影像图片违法的话,将立即报告给当局!

所以并不是拍自己的小孩光屁股就会出事主要还是会透过比对

图片4

既然会透过资料比对,代表用户的隐私权是否就被APPLE给侵犯了呢?许多专家认为这可能会对用户的隐私构成威胁,因为如果苹果这样做,这可以为全球用户监控数百万台设备打开大门,因此在经过「热烈」的攻防之後,苹果在九月初正式对外宣布,这个原定在美国先行推出的更新,将蒐集更多资料後再议!

其实苹果还是很保护隐私权的,常常都会出现执法机关要求苹果解锁手机遭到拒绝的案例!

图片5

(´◔ ₃ ◔`) 是说儿童色情比成人色情更容易比对吗?

科技

准确率可达九成?AI人工智慧《血液检测》早期肺癌检验登场,提早发现、提早治疗!

2021-9-10 23:55:02

科技

创意发明《自动捡狗便机》快速方便还会帮你打包装好超贴心

2021-9-14 23:55:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
搜索
XML Sitemap Feed