蘋果近期因一項新功能再次卷入隱私保護的爭議漩渦。這項功能是在iOS 26開發者預覽版中推出的FaceTime裸露檢測,旨在實時識別并阻止視頻通話中的不當裸露內容。
據蘋果官方介紹,該功能通過設備端側的AI算法工作,一旦檢測到可能的裸露畫面,系統會立即暫停視頻通話并顯示警告信息。該特性原本設計為在兒童賬戶上使用,旨在為青少年提供一個更加安全的數字社交環境。然而,令人驚訝的是,在iOS 26的開發者版本中,這一功能被擴大到了覆蓋所有年齡段的用戶,包括成人用戶。
盡管蘋果強調所有識別工作均在設備本地完成,不會上傳至云端,但這一變更仍在社交媒體上引發了廣泛爭議。不少用戶認為,蘋果無權對成年人實施這種控制,認為這是對個人隱私的侵犯。有人擔憂,這種年齡覆蓋的擴大是蘋果權力的過度擴張,可能會過度干預私人生活,甚至可能誤判與色情意圖完全無關的場景。
例如,設想一個場景:你正在與家中的小孩進行視頻通話,可能因為光著膀子或調整衣物,就被系統誤判為不當裸露,導致視頻通話被中斷。這種誤判不僅令人尷尬,還可能引發不必要的誤解和沖突。
事實上,FaceTime作為蘋果生態中的“元老級”功能,已經問世14年,但并非首次引發爭議。早在2019年,FaceTime就曾因技術漏洞讓用戶在未接通的情況下聽到對方通話的聲音,這一事件雖然迅速得到修復,但也讓很多人對蘋果的隱私保護能力產生了質疑。
蘋果一直以來都將用戶隱私保護作為公司的核心價值觀。回顧2015年,蘋果拒絕為FBI解鎖涉案兇手的iPhone,這一事件彰顯了蘋果在隱私保護方面的堅定立場。然而,即便如此,蘋果也曾因隱私問題引發過不少爭議。例如,之前推出的CSAM掃描計劃同樣備受批評,盡管其用意是發現和揪出兒童性犯罪者,在技術上最大限度保護用戶隱私,但仍被質疑是否背離了隱私保護承諾。
對于蘋果而言,如何在“道德”與“隱私”之間找到平衡點,確實是一個棘手的問題。FaceTime裸露檢測功能的初衷是為了保護青少年免受不適當內容的侵害,這一社會責任對于擁有十幾億用戶的蘋果來說義不容辭。然而,如何界定“自動干預”的邊界,避免過度干預私人生活,仍是蘋果需要深思的問題。