Apple因拒绝监测“儿童性虐待内容”被起诉,隐私底线再被挑战
近日,因隐私Apple收到一项关于CSAM(儿童性虐待材料)的拒绝监测指控,指控对象是童性挑战该公司2021年放弃实施的“CSAM监测”功能。受害人表示,虐待内容Apple默许iCloud存储CSAM相关内容,起诉并对自己造成二次伤害。底线 此次案件的再被受害者是一名27岁的女性,她在儿童时期受到亲戚猥亵,因隐私并被记录下来,拒绝监测相关内容一直在网上分享,童性挑战其中一个重要载体就是虐待内容iCloud。她指控道,起诉Apple并没有识别并删除这些照片或视频,底线以至于她现在还能看到那些内容,再被并持续对她造成伤害。因隐私 诉讼称,“如果Apple实施其2021年的‘CSAM监测’技术,原告童年性虐待的图像和视频,将被识别并删除。” 这已经不是第一起相关起诉,今年8月,一名9岁女孩和她的监护人也起诉了Apple,理由是该公司未能解决CSAM在iCloud的传播问题。根据现有数据统计,可能有2680名潜在受害者将对Apple提出赔偿要求。 时间回到2021年,Apple当年宣布CSAM监测功能后,因为隐私隐患被迫叫停。该功能在当年引起巨大舆论压力,因为CSAM监测相当于植入一个官方“后门”,一旦被滥用将有巨大隐私泄漏风险,如今该风险又将卷土重来。 粗略统计,Apple全球用户多达20亿,存储在iCloud的图片及视频不计其数,它们现在都是加密状态存储。在CSAM监测功能加入后,相当于在所有加密内容中放入了一个“后门”,只要有需要,就可以随时解密这些数据。 现在的情况是,Apple已经明确表示,在iPhone、Mac或iPad中存储的内容,即使是Apple官方,在任何情况下都无法访问这些数据。也许正是由于端到端加密的特性,连Apple官方也无法查看并处理这些CSAM相关内容。 在回应CSAM相关起诉时,Apple发言人说道:“CSAM相关内容令人憎恶,我们致力于打击这类犯罪行为。我们正在加紧技术创新,积极打击犯罪行为,同时又不损害所有用户的安全和隐私。”最新消息,Apple拟定的初始计划是,在CSAM相关内容发送时发出警告,在传播开始前进行遏制,不过这个方案可能随时会改变。 无论如何,这个诉讼都将关系全体Apple用户,大家都应认真对待,因为加密存储的任何一环被打破,这个隐私壁垒就将彻底崩溃。
- 最近发表
- 随机阅读
-
- 优衣库 x JW Anderson 2024 秋冬联名系列发布
- “敢越级”进击,realme初次参展IFA停止品牌计谋公布会 -
- PS商展欧好天区圣诞假期游戏下载排止榜公布 太空狼人杀《Among Us》单主机第一
- 北京故宫主题免费开放日时候及工具先容
- 莱福岛生活节3.0再度火热出圈,赛演经济全球瞩目
- 2022北京银山塔林风景区开放了吗
- 2022故宫初雪时候战门票预订指北
- 2022青岛秋节那里有烟花秀
- 郑州到底多少人?统计局:2017年常住人口988.07万
- 北京秋节过年往那里玩比较好
- 山海闭四周有甚么好吃的
- 五台山正在那里 五台山两日游攻略
- 国际志愿者日,“快门无声校园公益行”走进翠香幼儿园
- 5G王牌决胜,京东618华为品牌3C家电范畴再创新下 -
- 天津盘山好玩吗 旅游线路保举
- 稻乡亚丁有甚么好玩的景面 稻乡亚丁必往景面保举
- 世乒赛男单:王楚钦零封户上隼辅 日本男单全军覆没
- 嗨翻假期!20款必玩联机PC游戏保举
- 好团月付已于8月初周齐支撑好团仄台分期付出 -
- 2022扬州个园秋节开放时候 有哪些活动
- 搜索
-
- 友情链接
-