近期人工智慧無論在醫療、法律、生物科技均廣泛地使用,由於人工智慧須以大量的數據做為基礎,透過個人圖像與群體圖像的比對,在系統中尋找相符的群體圖像,進而預測或評估個人之特徵、偏好以及能力或行為,也就是說建構出特定群體的重要特徵後,以個人圖像符合程度,作為該行為模式的運作基準。
然而卻也可能產生隱形的偏見, 2015 年,Google Photos 應用誤把兩名黑人標註為「大猩猩」,當時這一錯誤意味著谷歌的機器學習還處於「路漫漫其修遠兮」的狀態。隨後,谷歌立即對此道歉,並表示將調整算法,以修復該問題。近日,作為該項錯誤的責任方,谷歌正在試圖讓大眾了解 AI 是如何在不經意間永久學習到創造它們的人所持有的偏見。一方面,這是谷歌對外公共關係的好方式,其次,AI 程序員也可以用一種簡單的方法來概述自己的偏見算法。
但這樣的事件涉及的層面不僅為系統者設計的錯誤,人工智慧會將社會的偏見深化以及轉化成「隱形的偏見」,例如全球第一個用人工智慧(AI)機器人當評審的「AI美人」(Beauty.AI),選美吸引逾百國近六千人寄人頭照參賽,最後有四十四位「美人」勝出,卻因贏家多是白人,黑皮膚顯然不受青睞,讓各界對AI客觀審美一事持保留態度,認為當初設計演算法的科學家本身就存在偏見歧視,才導致機器人評審「假中立」。
人工智慧的時代的來臨須避免演算法所帶來的偏見,演算法設計編碼的過程如果存在特定刻板印象,藉由演算法大量輔助判斷與介入決策過程,將持續複製以及加設對特定族群的歧視與偏見。
各位讀者可以思考這個的情況是無可避免?還是有什麼樣的方法能夠改善呢?