聯合國教科文組織(UNESCO)7日發布研究報告指出,大型語言模型(LLM)存在性別偏見、恐同和種族刻板印象傾向。

偏見。以英國和祖魯族(主要居住於南非的一支民族)為例,英國男性往往是司機、醫師、銀行職員、教師等多元化職業,而祖魯族男性則限於園丁或保全;和祖魯族女性相關的文本中有20%將她們設定為傭人、廚師或管家。

另一方面,公司組成多元化同樣是抗爭刻板印象的重要戰場。數據顯示,在大型機器學習企業的技術部門中,女性員工僅佔20%,在AI研究人員中佔12%,在專業軟體開發人員中佔6%。在相關領域發表論文的作者中,性別差異也相當明顯。研究發現主流大型研討會中,只有18%作者是女性,卻有80%以上是男性。

教科文組織在2021年11月通過《人工智慧倫理問題建議書》,成為該領域第一項也是唯一一項全球性規範架構。2024年2月,包括微軟在內的8大全球科技公司對《建議書》表達支持,確保在設計AI工具時保證性別平等,並增加女性參與 STEM(科學、技術、工程、數學)和ICT(資訊和通訊技術)學科的機會。

教科文組織秘書長阿祖萊(Audrey Azoulay)表示:「越來越多人在生活中使用LLM。這些新工具擁有在不知不覺間改變千百萬人認知的力量,因此,即使在文本中生成極為微小的性別偏見,也可能顯著加劇現實世界中的不平等」。