9 月 6 日消息因遭到大量用戶以及部分國家和地區(qū)反對,蘋果近日宣布暫緩?fù)瞥?CSAM 兒童性虐待照片掃描功能,表示公司會在未來的幾個月收集意見,并改進這項功能。據(jù)外媒 Wccftech 消息,電子前沿基金會 EFF 于 9 月 3 日發(fā)表文章,表示蘋果 CSAM 檢測功能會給iPhone用戶的隱私和安全造成威脅。
EFF 對蘋果暫緩?fù)瞥鲈摴δ?、傾聽意見的做法表示高興,但是希望該公司能夠更進一步,不僅僅是傾聽意見,而是完全放棄這項計劃。該基金會表示,這一功能的推出,還有可能將原本遭受傷害的兒童置于更大的危險之中。
官方表示,全球有 90 多個組織向蘋果呼吁,不要實施 CSAM 計劃。上周,EFF 向蘋果發(fā)出請愿書,已經(jīng)收集到了超過 2.5 萬個簽名。
IT之家了解到,今年 8 月德國有關(guān)部門給蘋果 CEO 庫克,希望蘋果重新考慮其 CSAM 計劃。蘋果公司對這一功能解釋稱,不會掃描分析每個 iPhone 上的照片,而只是對 iCloud 上的照片特征數(shù)據(jù)比對。自從蘋果公司發(fā)表暫緩?fù)瞥?CSAM 的聲明之后,截至發(fā)稿還沒有更新的回應(yīng),該功能是否會正式推出,還是未知數(shù)。
責(zé)任編輯:Rex_01