2021年8月29日 星期日

蘋果AI人工智慧抑制色情照散佈,竟產生隱私爭議!? (下)

蘋果開發AI 人工智慧做兒童色情守門員卻引起爭議!到底是什麼原因呢?

蘋果開發AI人工智慧做兒童色情守門員卻引起爭議!到底是什麼原因呢?


前情提要:因著智慧型手機的發展、網路越來越快、雲端越來越普及,導致有心人士大量散發兒童色情圖片。近幾年,全球兒童色情犯罪事件層出不窮⋯⋯因此蘋果使用 AI 人工智慧——這種無人的方式來把關兒童色情圖片的傳播(詳情請看上篇連結),想不到這個 AI 太厲害,竟引發隱私權方面的爭議!

 

拓展 Siri 搜尋功能,新增「提醒、干預」

蘋果表示將對 Siri 功能與搜尋進行更新,協助有相關困擾的監護人與未成年人的使用者。

例如:當使用者詢問該如何回報 CSAM 相關問題的時候,蘋果將會結束導向相關機構的聯絡方式,或是提供指引來幫助使用者。

除此之外,若是有使用者像要查詢有關 CSAM 或是敏感、有害的內容,系統也會進行干預,跳出警示告知使用者。


圖片來源:蘋果官網。

難以揮去的隱私疑慮

這些功能,預計今年將會在 iOS 15、iPadOS 15、watchOS 8 和 macOS Monterey 的更新中推出。

在以往,相對於 Android 使用者,蘋果的支持者們最自豪的便是 iOS 的高穩定性與嚴密的隱私保障,而這也是蘋果公司不斷強調的優勢。

不過現在,蘋果這次的做法與過往似乎有了很大的不同。

即使這些措施雖然是為了保護未成年、減少兒童與青少年私密照外流所帶來的傷害,但還是帶來不少隱私與資訊安全的隱憂。

對此,有許多資訊安全專家與機構組織都表示疑慮或反對,認為這項作法「如同在牆上打洞、裝上門後再鎖上。」

雖然有門鎖,但風險依然存在,況且要是鑰匙不慎流出,駭客便會暢行無阻。

除此之外,也有一些人擔心此先例一開,蘋果未來可能因為各國家政府的法律規定和要求,調整審查標準、成為監控工具。例如同志相關內容、政治敏感資訊等等,極權國家的使用者更是有此擔心。

隱私保障與資料運用的平衡難題

兒童色情內容經常被視為犯罪的證據,未成年人通常是在被威脅、利誘或哄騙的情況下拍攝這些內容,而流傳於網路上更是二次傷害。

蘋果此舉,或許是希望透過 AI 人工智慧提高取得相關資訊的門檻,減低可能的需求,進而減少類似的兒童性犯罪再度發生。

然而,當檢警要搜查民宅前都須先向法院申請搜索票的法治社會下,蘋果直接以審核使用者彼此之間的私人訊息和個人儲存空間等方式,來試圖達成防治的目的,是否有符合比例原則?個人的隱私考量與社會整體的治安,該如何平衡呢?

或許是個需要大眾不斷思考與討論的問題。

 

相關文章:

隱私是基本人權!蘋果新功能「App 追蹤透明度」

Google 加強隱私,讓你快速刪除15 分鐘內搜尋紀錄

Google 為保護隱私,棄Cookie 卻改用人工智慧?

Facebook 開源Python 語言的安全與隱私工具Pysa

蘋果與Facebook是為了什麼槓上了呢?

多家瀏覽器對Google的FLoC喊卡?(上)

造成多方疑慮的Google的FLoC!(下)