顯示具有 人臉辨識系統 標籤的文章。 顯示所有文章
顯示具有 人臉辨識系統 標籤的文章。 顯示所有文章

2020年7月2日 星期四

人工智慧新聞編輯剛上線,就大出包!(下)

亞馬遜人工智慧辨識有色人種時鬧大烏龍!取代真人記者編輯,這真可行嗎?
亞馬遜人工智慧辨識有色人種時鬧大烏龍!取代真人記者編輯,這真可行嗎?
人工智慧臉部辨識 不易分辨有色人種

▲ 被亞馬遜「Rekognition」 臉部辨識系統錯認的 28 位國會議員

  其實AI人工智慧在分辨有色人種的時後,似乎時常出錯。如 2018 年美國公民自由聯盟(American Civil Liberties Union,ACLU)就對亞馬遜提供的「Rekognition」 付費臉部辨識服務做了測試。

ACLU 蒐集了 25000 張嫌犯照片做為臉部辨識的資料庫,並且使用了預設的設定,讓 Rekognition 逐張比對國會議員和資料庫裡的嫌犯照片。結果,最後有 28 名國會議員被誤判,在誤判的議員中,有 40% 的議員是有色人種 ── 即便有色人種在全部的國會議員中只占了兩成。

▲眾議員 Sanford Bishop(D-Ga.)被 Amazon Rekognition 臉部辨識系統錯認為罪犯

 然而,「Rekognition」 臉部辨識系統也被美國警方使用。這是否會在不知不覺中侵犯到有色人種的權益?目前亞馬遜已因此問題,暫停提供這套系統給美國政府使用。 

現有的臉部辨識技術,在分辨有色人種特別容易出錯,也許是以下原因導致:

AI資料庫的白人照片比較多

美國喬治城大學法律中心(Georgetown Law School Center)的隱私與科技領域資深助理 Clare Garvie 表示,原因可能是出在工程師建立AI人工智慧 的臉部辨識資料庫時,提供的白人照片比有色人種多而導致。

開發工程師以白人居多

一個研究顯示:人們在辨識另一種族的人員時,準確度會低於辨識與自己相同種族的成員。 而大部分 IT 產業的工程師以白人男性居多,他們開發出的臉部辨識系統在辨識有色人種的準確度時,無形中也比白人還差 ── 即使他們無意為之。

其時除了臉部辨識的問題,使用人工智慧來取代真人撰寫、改編新聞,本來就爭議連連: 

過去英國《衛報》曾將一則關於英國脫歐的新聞中,第一段中的一些句子餵給人工智慧,結果AI 馬上產生「可信度高」的假新聞與文章 ── 文中的人名 (如政壇人物的名字)、地名與所提到的片段事件皆為真實存在,不過新聞的內容卻是將這些真實的元素移花接木而成,但是卻符合邏輯,因此易被有心人士用來製造假新聞。(詳細報導:AI寫作能力強過人類,恐成為假新聞製造機?)

人工智慧 太會捏造新聞,甚至有人懷疑之前馬斯克離開自己創立的AI人工智慧研究團隊「OpenAI」與此有關呢!(詳細報導:馬斯克宣布離開 OpenAI 的真正原因是...研發的 AI 太會寫假新聞?

無論如何,人工智慧畢竟沒有靈魂,因此沒有明辨是非的能力,所以生產出的文章都會跟現實有些出入。所以最好的方法還是把新聞的編輯、審稿工作交還給人類,畢竟這世界八卦與謊言已經夠多了!我們需要真實的東西!

本篇為下篇,上篇請點此連結

相關文章:

線上職訓正夯 從零開始花半年錄取軟體工程師

Python vs R語言:哪個比較適合人工智慧/機器學習?

台灣本土開發AI 發行首張音樂專輯<<武漢肺炎>>

六個月從工地工人轉職 Java 軟體工程師,全因半年做了「對的決定」

人工智慧釀酒竟更勝人類?(上)

人工智慧讓你做好最佳防疫不越界!

人工智慧連重機賽車冠軍車手的飯碗都要搶!?  

2020年7月1日 星期三

人工智慧新聞編輯剛上線,就大出包!(上)

人工智慧新聞編輯能力究竟如何?真能取代真人記者編輯嗎?

人工智慧新聞編輯能力究竟如何?真能取代真人記者編輯嗎?

▲ 普林斯敦大學的研究團隊結合人工智慧新聞編輯混淆了英國兩位有色人種歌手:Leigh-Anne Pinnock(左)和 Jade Thirlwall(右)。
   

微軟用人工智慧編輯新聞!全球近百名員工飯碗不保?

最近微軟公司宣布:要讓 AI 人工智慧取代旗下近百位「真人」新聞記者與編輯,來為微軟新聞、MSN.com 等,挑選與編輯新聞。根據 Business Insider 報導,美國約 59 人被裁撤;衛報也提到英國也有大約 27 人遭裁,還有其他國家地區的辦公室,也有很多員工面臨飯碗不保的窘境。

沒想到這個 AI 人工智慧才上線一個月就出包,還牽扯到近期非常敏感的種族議題,引發人們對人工智慧的編輯新聞能力、整體人工智慧臉部辨識科技的疑慮。
推薦閱讀:AI寫作能力強過人類,恐成為假新聞製造機?

人工智慧錯置新聞配圖 女歌手指名「請加油吧」

根據英國《衛報》指出,微軟旗下的 MSN 新聞網站,近日轉載了英國《獨立報》有關英國流行女團 Little Mix(混合甜心)的報導,內容是關於其中一位成員 Jade Thirlwall 過去在學校中遭受種族歧視的心路歷程。

雖然這是一篇單純的採訪報導,但是經過微軟的 AI 人工智慧編輯轉載後,新聞配圖竟然不是採訪的對象 Jade Thirlwall,而是同團的另一名團員 Leigh-Anne Pinnock 與另一名男性的合照!
▲ 被人工智慧錯置配圖的新聞主角 Jade Thirlwall 在 IG 上表達對 MSN 新聞的不滿

AI 人工智慧造成的烏龍,引發新聞主角 Jade Thirlwall 的不滿。她在 Instagram 上標註 MSN 並抱怨說:「@MSN 如果你們要複製貼上別家正確的媒體文章時,應該要確認一下配圖是否為正確的有色人種團員」。她還補充說:「這讓我很生氣,你們竟然沒辦法從只有 4 人團體中,區分 2 個有色人種女性?請加油吧!」

目前尚不清楚讓微軟 AI 人工智慧犯下如此錯誤的原因,但微軟在新的聲明中表示:這不是人工智慧「演算法偏見(註解如下)」的結果,而是自動化系統中的新功能測試。

所謂的「演算法偏見(algorithmic bias)」是指在看似沒有惡意的程式設計中,卻帶有程式設計人員的偏見、或者採用的數據是有偏見的。「演算法偏見」的結果當然帶來了各種問題:如 Google 搜尋被曲解、合格的考生無法進入醫學院就學、聊天機器人在推特 (Twitter) 上散佈種族主義和性別歧視資訊等。

本篇為上篇,下篇請點此連結

相關文章:

線上職訓正夯 從零開始花半年錄取軟體工程師

Python vs R語言:哪個比較適合人工智慧/機器學習?

台灣本土開發AI 發行首張音樂專輯<<武漢肺炎>>

六個月從工地工人轉職 Java 軟體工程師,全因半年做了「對的決定」

人工智慧釀酒竟更勝人類?(上)

人工智慧讓你做好最佳防疫不越界!

人工智慧連重機賽車冠軍車手的飯碗都要搶!?