貼文日期 2021/05/14
貼文標題 機器的偏見:藏在演算法裡的歧視
貼文網址 https://www.facebook.com/1645501069043806/posts/2968722013388365
來源連結 性別化創新研究案例「機器學習」
貼文內容
在科技蓬勃發展的現代,網站廣告推播、外語即時翻譯、人臉辨識等AI(人工智慧)應用
術已相當普遍,十多年前還是新穎名詞的大數據、演算法,如今已成為我們日常生活
的基礎。
 
然而,不會受到情緒影響、給人感覺公正客觀的AI,其實也和人類一樣,可能會因為演
算法的關係而推展出具性別或種族歧視的結論。
 
#數據中的偏見讓AI也學會了偏見🤖❓
 
AI的運作一部份是靠著 #機器學習的方式,透過各種資料庫數據,進行演算法在分析和
選擇上的訓練。然而,許多研究發現,AI會因為資料庫數據中的性別和種族偏見,而跟
著做出帶有歧視的判斷。
 
以常見的機器學習方式 #詞向量(Word embedding) 為例,它會將詞彙轉換成向量數據
藉以類推出字詞之間的對應關係,例如「男人」對應「國王」、「女人」對應「皇后」
然而,這樣的學習方式卻也會類推出「男人」對應「醫師」、「女人」對應「護士」
的結果,反而進一步強化了社會中的性別偏見。
 
#相機也有種族歧視📸❓
 
許多人都曾有在團體照中剛好被相機捕捉到眼睛半閉的經驗,為了解決這個問題,
Nikon便曾在Coolpix S630相機的軟體設計中加入可以偵測眨眼的人臉辨識功能,若
被拍攝對象在眨眼睛,相機便會給出「有人在眨眼睛嗎?」的提示。
 
這原本應是立意良善的設計,卻對亞裔使用者造成了不便:即便亞裔使用者已將眼睛
張到最大了,這款Nikon相機卻總是會認為鏡頭中有人在眨眼睛,而不停地給出提醒。
 
#解決演算法偏見,讓社會更靠近公平一點🥳
 
偏見和歧視源於社會對於性別或種族的預設觀念,而當AI機器學習使用的系統數據也
社會時,AI便會在不知不覺中也複製了當前社會的偏見。
 
為了改善這個問題,科學家們透過打造專門訓練AI的數據集來避免偏見。此外,也可
頭做起:在AI相關的研究中組織跨領域與多元社會背景的團隊、在程式設計課程中
加入社會議題觀點,皆是不錯的解方。
 
如何讓世界更靠近公平一點?減少AI系統數據中隱含的偏見,並藉此機會細心地審視、
覺嵌藏在社會中的偏見,可能會是個好起點!
 
想知道更多有關AI機器學習的研究案例嗎?快點來看看。
 
💡延伸閱讀:
 
───── 
🕵️追蹤科科性別了解科研領域中的性別議題