12/12/2018
種族歧視的人工智能
這個夏天我在葡萄牙一個律師會議上發表關於人工智能的演講。在到場的著名講者和聽眾裏有一位專家,其主要工作是移除人工智能系統中的歧視和數據偏差。
他舉了一個貸款評估系統的例子。 如果這些系統基於一些偏倚的數據,就會輸出譬如「黑人比白人更可能拖欠貸款」 這樣的結論。他說:「我們在嘗試通過重建數據來避免這種情況。不再談及種族,把資料庫中關於種族的特徵變量刪除,而用一組會捕捉到同樣資訊、能夠作出同樣預測、但不會提及人種的變量代替。比如說,我們會儲存關於工作、經濟狀況、家庭規模、年齡等資訊......」
在他解釋這項工作時,我環顧會議室的四周。我看到的是八十個富裕、享有社會地位、通曉人工智能的律師。 這些參與會議的人,包括我,無一不是白人。而我當天只見到了兩個黑色的面孔:一位是在會議間歇時遞咖啡給我的女性,另一位則是來收拾髒杯子的。
我突然明白,如果有甚麼錯了,錯也不在於人工智能。假使我們訓練一個系統來預測會場中的人誰更可能拖欠貸款,它會正確地預測出是那兩個從事低收入工作的黑人女性。
錯的不是人工智能。錯的不是存在於算法或數據中的種族歧視。數據是完全準確的。錯的是現實本身。
我們人類經常將現實和我們願望中的現實混淆。我們會說「我是一個好丈夫」、「我的車很環保」、「我不能忍受種族歧視」 這樣的話。我很確定在這八十個富裕且受過良好教育的白人中,沒有一個邪惡的種族主義者。我們都是善良守秩序的專家,為了社會的利益而工作。 我們中甚至有一些人主動參與反歧視訴訟,或者是為了開發非歧視電腦程式而努力。我們全都認為自己是進步、善良、一定程度上開明的人。
但是,在場的所有人中,倒咖啡的恰恰是兩位黑人女性。 而且要說在場的人誰會無能償還貸款的話,一定會是她們。
物理學家李察·費曼在調查挑戰者號宇航船的爆炸原因時曾說,「大自然是無法愚弄的」。火箭爆炸是因為一對橡膠圈,因為溫度過低而無法防止燃料洩漏。溫度太低,橡膠圈無法運作,燃料洩漏,飛船爆炸,就是這麼簡單。我們無法欺騙大自然,它就是如此。 不管宇航總局是否推遲發射的日期。不管發射成本多高、是否政治適當。要麼你是在能使橡膠圈正常運作的規定溫度內操作,要麼不是。如果不是,飛船就是會爆炸。
在我看來,我們也處於相似的狀況。帶有種族歧視的人工智能的問題不總是在於人工智能。而是在於這個帶有種族歧視的世界,在於這個倒咖啡的兩人恰好是黑人的世界。 我們縱使採用不同的措辭(她們是黑人?抑或只是「有色人種」? )、持有善良的意圖、自欺地去將世界描述成希望的樣子,人工智慧的算法也不會因此就改變。 算法赤裸裸地反映著這個我們所創造的世界中的不公,沒有任何數據庫設計和調整變量可以改變這不公。
我們可以掩飾它,也確實掩飾得很好,只要再努力一些我們就能使自己確信一切都很好。 我們只要不把人種編入數據庫,問題自然就會消失,種族歧視也就不存在了。
只是,那個遞給我咖啡的女士膚色還是那麼黑。
問題不在於措辭,也不在於人工智能。 問題在現實自身。 人工智能只是一面拒絕被扭曲的明鏡,因為我們無法愚弄算法。
【etnet 30周年】多重慶祝活動一浪接一浪,好禮連環賞! ► 即睇詳情