在科技與資訊傳播都相當進步的世代下,社會中的刻板印象仍然持續存在。從每天都會見到的「洗手間圖示」來試想,為什麼男生就是藍色?為什麼女生只能穿裙子呢?
縱使全球倡導「兩性平權、性別平等」,但刻板印象的扭轉卻相當有限,更別提「黑人與白人、原住民與新住民」等帶有歷史痕跡、難以弭平的種族議題,早已經深植人心。
但你有想過嗎?若這些存在社會已久的歧視議題,出現在代表著公正、客觀的AI人工智慧中,對個人與全球會有哪些隱憂?

從AI辨識看社會歧視
自2022年2月開始,俄烏戰爭已開打超過一個月,各國都以不同的方式對烏克蘭伸出援手,這其中卻埋藏著濃厚的種族歧視意味。歐洲國家對烏克蘭難民積極友善,但對來自亞洲或非洲的烏克蘭留學生則不願提供更多幫忙,認為只應提供同為白人的烏克蘭人更多協助。
除了種族歧視,關於性別的議題也層出不窮,yes123求職網在2022年3月公布【職場女力崛起與工作甘苦談調查】,結果發現即使自己認為競爭力不輸給男性,仍有57.7%的女性勞工覺得「職場性別歧視」嚴重,且有69.1%的人透露,曾經遇過與男
性同仁「同工不同酬」的狀況;企業女主管的比例佔「一半(50%)以上」的,也僅有14.2%。

是AI不夠智慧,還是人類不夠周全?
數年前的亞馬遜Amazon就曾發生過類似的案例,亞馬遜為了協助HR節省審閱履歷的大量工時,在2014年開始組織AI機器學習團隊,開發履歷篩檢功能。然而一年後團隊卻發現,AI獨獨針對女性的履歷會扣分,原因是亞馬遜過去十年都以聘用男性為主,
女性資料內容的缺失造成機器學習後誤判。最終,亞馬遜無法確保完全杜絕這樣的偏差,因此只能放棄該計畫。
而現在越來越多單位開始使用AI辨識來作業,包含我們在企業中常見的「上班打卡」或是停車場的「車牌辨識」,都是常見的應用案例。如果因為人臉辨識錯誤,導致你每天上班都在幫別人打卡、或是手機Face ID老是無法解鎖等等,是不是也造成你很大的困擾?
事實上AI的錯誤不只是影響特定族群的權益,與第一段提到的俄烏戰爭案例雷同,過去矽谷就曾經想把AI辨識推薦給美國警局使用,但美國當時有嚴重的性別與種族歧視,特定族群的樣本數不夠多,導致辨識上有很大的錯誤,也因此誤抓很多無辜者。
聽完這些案例,有很多人開始錯怪AI,認為他是個「不夠聰明」的人工智慧,但其實AI的錯誤源自於人類提供的教育。最早期的人工智慧單純以電腦程式去模擬人類的行為與思維,後來發現誤差值很大,於是漸漸從機器學習(人類協助AI擷取資料特徵),最後演進到深度學習(AI自行從資料中擷取特徵)。然而不論學習的方式如何改變,透過上面提到的各種案例,我們會發現一切源頭都在於人類給AI學習的資料內容,資料有缺少或不夠周全,都會間接將歧視的視角傳遞給AI,導致AI學習的偏頗,所謂的「公正客觀」也就淪為強化多數族群的工具之一了。

面對學習中的AI幼兒,如何設計最佳「言教」
(一)數據量的平衡
透過上面的案例可以得知,若資料的樣本數特別以哪類族群為多,其他族群都會出現失準的狀況,因此要特別留意性別與各族群的資料量達到平衡,讓AI在同一基準接收資訊,以呈現公正的統計結果。
(二)資料收集擴大且透明
要避免資料過於偏頗,除了數量平衡之外,應將資訊收集的範圍擴大,並制定相關收集規則,讓收集的管道更透明多元,資料才更有參考價值,避免只限縮在某些族群的特定視角。
(三)因應趨勢即時更新
全球時時刻刻都在產生不同的趨勢、文化、政策,AI的學習更應該掌握時代的腳步、參與多元意見與內容,避免守舊而導致偏差。
人類讓AI變成理想中的樣子,卻沒有去審視AI錯誤的來源,反而呈現人性在社會歧視的缺失與黑暗。即便如此,我們仍然不能抹滅科技發達的便利與優勢,純人力的作業效率與準確率,終究比不上AI的精準與速度。
或許未來可以嘗試設計「沒有性別、族群之分」的學習內容,弱化AI的框架與刻板印象。也期待有一天,我們可以反過來透過AI的便利與普及使用,傳遞無族群界線的意識,讓存在已久的社會歧視動搖或消失。