• |
  • 極速報價
  • |
  • etnet專輯
    etnet專輯
  • 會員
  • 產品服務 / 串流版
  • 設定
過往專欄
嶺南人語
趣味投資法暢所欲妍HR唔易做辦公室政治論盡中港台時事要聞圖窮秘現中環人金錢世界呈分試 你要知小事大意義全城聚焦點政•漫料理NatFix我家私房菜素心Cook心理攻防戰綠路閑人好書看多點Pris形象教室形象UP!保哥快趣煮Green Monday看透生死親子語我要初創政策.正察跳躍中國時空筆記留心站財玄廣進點歷史看真點時勢造網紅Online有話兒DR-Max 一點就明Bella vita 美好生活iMoney 熱點Talk Of The Town活得健康點親子芬享不藥而癒人生燦爛點凱文隨筆尋寶島盛衰關鍵國金與投資留給囝囝IC理財打工秘笈樂活人生SME 解密「港」創業‧談管理心靈加油站「男」言之隱滾蛋吧,腫瘤花生味辦公室健康透視抗癌煮意知‧解醫學創業兵團匯對達人容我細說言歸政傳政經頑石不低頭為理發聲郎旋風薰香療法男士診症室抵玩自助遊句句有骨星座命理念力•氣功手機應用tips睛益求精嚴浩 LIKE!見微知著跟著陶冬找美食數碼潮人廣告有晴踏出退休第一步識食•惜食有種CEO叫做莊潮爆網事羅湖橋兩邊娛樂酷辣辣思歪思正十萬八千里樂本健‧教室特首選舉趣食60秒入廚101觀自然•觀香港有種生活政本清源心筆在妍維基解碼IT戰國誌煮酒論政今日趣聞馬壇.誌趣星期二周融愛瘋Apps美美道來大國崛起智醒日誌@中小企「營」刃而解Smart Buying甜品工房Education Calculator家事法庭升學信箱新手媽媽怪獸父母營營樂樂親子專題財富非常道謝國忠看勢獨唱團京城近觀原來如此乾坤挪移街坊食神Keyman森巴舞睇波LU文化導遊精神解碼抗癌兵團有營生活吾道崢廣見聞名家名畫商務英語型品薈我心中的米芝蓮歐洲直擊旅途中食得喜Leadership Coaching一哥教攝影心晴百態乳你同行專科專論人愛衣裝Word Discovery科技趨勢愛情故事投資達人政治擂台藝術投資秘笈抗癌點滴寵物情緣淘寶lization電影一線網絡鬼故主.管微博一分鐘管理娛樂有理進攻SAT古今名錶政‧經‧女人The Beauty Factor議會內外石油戰爭男女情色談金說匯風水環境學細味建築Green Hong Kong星光伴我行我吃過的米芝蓮A+孩子上海觀察京城札記鐵娘駕到食客三千創富新思維海外升學信箱Today's Web藝術投資世界在讀什麼-雷美華潮得起Business English飛越地球村紅酒情報職場物語股場琦手鑽石媒人Mei Ling好愛情‧壞愛情性治療師手記名牌女王嶺南人語醫美正當時黃金時代醫美正當時一份好工美麗不妥協上班纏下班逅

12/12/2018

種族歧視的人工智能

  • 收藏文章
Text: 嶺南大學哲學系高級講師 馬逸文博士

  這個夏天我在葡萄牙一個律師會議上發表關於人工智能的演講。在到場的著名講者和聽眾裏有一位專家,其主要工作是移除人工智能系統中的歧視和數據偏差。

 

  他舉了一個貸款評估系統的例子。 如果這些系統基於一些偏倚的數據,就會輸出譬如「黑人比白人更可能拖欠貸款」 這樣的結論。他說:「我們在嘗試通過重建數據來避免這種情況。不再談及種族,把資料庫中關於種族的特徵變量刪除,而用一組會捕捉到同樣資訊、能夠作出同樣預測、但不會提及人種的變量代替。比如說,我們會儲存關於工作、經濟狀況、家庭規模、年齡等資訊......」

 

  在他解釋這項工作時,我環顧會議室的四周。我看到的是八十個富裕、享有社會地位、通曉人工智能的律師。 這些參與會議的人,包括我,無一不是白人。而我當天只見到了兩個黑色的面孔:一位是在會議間歇時遞咖啡給我的女性,另一位則是來收拾髒杯子的。

 

  我突然明白,如果有甚麼錯了,錯也不在於人工智能。假使我們訓練一個系統來預測會場中的人誰更可能拖欠貸款,它會正確地預測出是那兩個從事低收入工作的黑人女性。

 

  錯的不是人工智能。錯的不是存在於算法或數據中的種族歧視。數據是完全準確的。錯的是現實本身。

 

  我們人類經常將現實和我們願望中的現實混淆。我們會說「我是一個好丈夫」、「我的車很環保」、「我不能忍受種族歧視」 這樣的話。我很確定在這八十個富裕且受過良好教育的白人中,沒有一個邪惡的種族主義者。我們都是善良守秩序的專家,為了社會的利益而工作。 我們中甚至有一些人主動參與反歧視訴訟,或者是為了開發非歧視電腦程式而努力。我們全都認為自己是進步、善良、一定程度上開明的人。

 

  但是,在場的所有人中,倒咖啡的恰恰是兩位黑人女性。 而且要說在場的人誰會無能償還貸款的話,一定會是她們。

 

  物理學家李察·費曼在調查挑戰者號宇航船的爆炸原因時曾說,「大自然是無法愚弄的」。火箭爆炸是因為一對橡膠圈,因為溫度過低而無法防止燃料洩漏。溫度太低,橡膠圈無法運作,燃料洩漏,飛船爆炸,就是這麼簡單。我們無法欺騙大自然,它就是如此。 不管宇航總局是否推遲發射的日期。不管發射成本多高、是否政治適當。要麼你是在能使橡膠圈正常運作的規定溫度內操作,要麼不是。如果不是,飛船就是會爆炸。

 

  在我看來,我們也處於相似的狀況。帶有種族歧視的人工智能的問題不總是在於人工智能。而是在於這個帶有種族歧視的世界,在於這個倒咖啡的兩人恰好是黑人的世界。 我們縱使採用不同的措辭(她們是黑人?抑或只是「有色人種」? )、持有善良的意圖、自欺地去將世界描述成希望的樣子,人工智慧的算法也不會因此就改變。 算法赤裸裸地反映著這個我們所創造的世界中的不公,沒有任何數據庫設計和調整變量可以改變這不公。

 

  我們可以掩飾它,也確實掩飾得很好,只要再努力一些我們就能使自己確信一切都很好。 我們只要不把人種編入數據庫,問題自然就會消失,種族歧視也就不存在了。

 

  只是,那個遞給我咖啡的女士膚色還是那麼黑。

 

  問題不在於措辭,也不在於人工智能。 問題在現實自身。 人工智能只是一面拒絕被扭曲的明鏡,因為我們無法愚弄算法。

 

 

 《經濟通》所刊的署名及/或不署名文章,相關內容屬作者個人意見,並不代表《經濟通》立場,《經濟通》所扮演的角色是提供一個自由言論平台。

【etnet 30周年】多重慶祝活動一浪接一浪,好禮連環賞! ► 即睇詳情

我要回應

你可能感興趣

版主留言

放大顯示
風水蔣知識
最緊要健康
精選文章
  • 生活
  • DIVA
  • 健康好人生
專業版
HV2
精裝版
SV2
串流版
IQ 登入
強化版
TQ
強化版
MQ