貼文日期

2019/05/22

貼文標題

AI與偏見的距離?

貼文網址

https://www.facebook.com/TaiwanGIST/posts/2358409601086279

來源連結

性別化創新中文網「機器學習:分析社會性別」

貼文內容

#機器學習背後的二三事

上回我們談到,AI之所以會有性別、種族偏見,是因為使用含有社會偏見的資料庫來進行 #機器學習的訓練,才讓AI「學會」了社會偏見。

其實,除了資料庫訓練外,近年來還有另一種熱門的機器學習方式,用來訓練AI的語言表達能力,那就是👉「#詞向量」(Word embedding / Word Vector)!

#詞向量小百科

簡單來說,詞向量就是將詞彙轉換成向量數據,然後依據不同字詞間向量數據的遠近程度,來捕捉詞彙之間的關連性。

利用詞向量,不僅可以將文章資料中,意思相近的字詞作分類,也可以透過計算,類推出相對應的關係詞彙。

例如,它可以將「德國」、「法國」劃為相近詞,亦可藉由計算出「德國-柏林」、「法國-巴黎」的向量距離,類推出其它國家與首都的對應詞彙。

(想...滑...走...了?別~小的立馬結束這回合啊!)

總之,詞向量的優點,在於可以讓電腦透過上下文的分析,自動調整詞彙間的向量關係,彌補語言訓練資料庫的不足,並提升AI的抽象化思考能力,讓AI能 #更精確的解讀人類的語言!

#詞向量也是壞老師?

BUT,這樣一個好棒棒的詞向量技術,卻仍是被指控具有性別偏見,有可能會讓AI學壞!

原來,詞向量因為能夠補捉詞彙間的關連,並類推關係,除了類推出「國家-首都」的關係外,同時也類推出了帶有性別刻板印象的詞彙組合。

例如「男性-醫師 vs 女性-護理師」、「男性-電腦工程師 vs 女性-家管」、「男性-教授 vs 女性-助理教授」等詞彙關係,延續了社會中對性別分工的偏見和歧視。

若AI套用這樣的邏輯去進行語言的分析和表達,並應用在我們的日常中,可能會產生帶有性別偏見的判斷,最終仍舊會踏上複製社會偏見一途。

#AI是人類偏見的探測器

好吧,說來說去,還是因為人類社會到目前為止所累積下的各種偏見,這些偏見隱藏於各種數據、資料庫中,導致被期待「如人類一般思考」的AI也跟著學會了社會中的不平等。

雖然科學家們正致力研究讓AI更為客觀、中立的方法,但是偏見深植於我們的生活、語言之中,除了性別,還有種族、審美、階級等等的各種偏見,實在難以根除。

但是也別太悲觀,正因為有AI作為人類偏見的探測器,才能提醒我們偏見的無所不在,並促使我們付諸行動去溝通和改善,進而打造更具公平性的人類社會!

想知道更多有關機器學習的 #性別化創新案例嗎,快點進來看看!

#GenderedInnovations

#性別與工程

#AI中的性別偏見

#詞向量本人亦表示非常無辜

#我們與偏見的距離

延伸閱讀:

什麼是「性別化創新」? 

想更加了解「詞向量」? 

詞向量也是一種「自然語言處理」方法! 

AI加深性別偏見有解嗎? 

會造假、操控、歧視,AI科技沒有你想得中立!

台灣研究:

如何用詞向量找出文字中的性別偏見?