去年底ChatGPT爆紅後,「生成式人工智慧」的浪潮席捲全球。但在享受AI帶來的便利與經濟效益之虞,社會裡既存的偏見與歧視可能也受到AI推波助瀾。對此,歐美社會紛紛出現「監管AI」的呼聲,盼透過立法提升AI演算法的透明度與問責機制。
AI早已滲透人類生活的各個角落。滑手機逛社交媒體,動態牆上是AI演算法推播的內容;購物有問題撥打客服電話,接聽的可能是AI聊天機器人。更不用說許多企業已導入AI技術來招聘員工、識別客戶身分。某種程度上,AI決定了我們能否得到工作、銀行貸款,甚至保險理賠金。
美國Amazon用AI篩選履歷 竟出現「重男輕女」現象
許多人或許認為,科技工具是中立的,交由AI決定最有效率、也最公平。然而,當訓練AI的數據資料本身就存在偏見,AI就可能做出歧視性決策。早在2018年,美國電商巨頭Amazon就發現,他們實驗性的AI招聘系統出現「重男輕女」現象。
當時,Amazon的機器學習團隊開發一個自動化系統,希望幫人資部門初步篩選履歷。但由於公司過去的應徵者以男性居多,當實驗團隊以過去應徵者作為資料庫來「訓練」AI,卻讓AI認為男性應徵者比較適合,並為「女子大學」畢業的人打上較低的分數。
儘管Amazon宣稱沒有正式使用過這個AI招聘系統,並解散了研發團隊,但此案例證實了AI科技可能存在偏見。英國艾塞克斯大學商學院教授凱蘭(Elisabeth Kelan)指出,這不僅是技術上的問題,更是因為訓練AI的「資料庫」,某種程度上反映了社會結構。
Amazon的應徵者資料庫以男性居多,反映的是科技業由男性主導的現象。但如果透過此AI系統篩選應徵者,恐將強化科技業的性別不平等問題。
德國記者實測AI招聘系統 發現外貌會影響性格評估結果
事實上,在招聘流程引入AI已經是許多企業的日常。儘管研發團隊宣稱,用AI篩選應徵者可以排除人資的個人喜好,讓招聘過程更客觀。但2021年,德國巴伐利亞廣播公司(BR)記者對慕尼黑一家新創公司「Retorio」研發的人臉辨識系統進行測試,發現評分結果會受面試者外貌影響。
例如,同一位女性錄製一模一樣的自我介紹影片,當她戴眼鏡或戴頭巾,皆得到完全不同的性格評分。甚至,面試者背後有畫作或書架、面試影片本身的明暗度,也會影響AI對面試者個性的評估。當畫面較暗時,面試者被AI視為不太認真和外向的人。
對於BR記者的測試,Retorio公司回應,將面試者的穿著打扮納入考量,是正常工作面試都會發生的。而面試影片的品質在應徵工作本來就很重要,他們的系統可讓應徵者反覆錄製影片,並選出最滿意的版本。
Retorio強調,AI系統評估的準確率高達90%。
銀行用AI演算法決定貸款與否 「族裔」可能成為隱而未顯的指標
事實上,歐美科技業界一直存在對AI強化歧視的擔憂。今年6月,推特前「機器學習、透明度與問責中心(META)」主任喬杜里(Rumman Chowdhury)就在阿姆斯特丹的Money 20/20會議上表示,貸款是AI對弱勢族群出現系統性偏見的典型案例。
「芝加哥曾有拒絕貸款給黑人社區的歷史。」喬杜里說,在1930年代,芝加哥的銀行業者會以社區的族裔人口對個人信用做評分。他們在地圖上用紅線標示出黑人社區,並列入拒絕貸款名單。
時至今日,銀行改用AI演算法為客戶的信用做評分,但喬杜里擔憂,「族裔」很可能成為演算法採用、但隱而未顯的指標之一,加深不平等的現況。
AI演算法不透明 要證明「AI有歧視」有困難
但是,要證明AI系統存在歧視仍有困難。蘋果和高盛集團曾被控告對女性提供較低的Apple Card額度,最後卻因證據不足,被紐約州金融服務部駁回。
歐洲非營利組織「反種族主義網絡」主任斯莫特(Kim Smouter)說,即使有個人認為受到歧視,但因為不知道AI是如何做分析、有哪些輔助機制,系統的整體不透明,讓證明AI存在歧視很困難。
「人們對AI系統如何運作知之甚少,這些個案很可能只是整個系統的冰山一角。」斯莫特說道。
但不可否認,AI出現偏見無疑是個問題。例如在COVID-19疫情期間,美國學校用來監督學生進行線上考試的AI影像分析與人臉辨識功能,就被批評對身障學生有錯誤標記。有神經疾病而考試時會坐立不安、有視力障礙導致眼球不規則運動的學生,都可能被AI列入「可疑行為」。
開發者樂觀期待技術解決 倫理專家呼籲立法監管
對於AI的偏誤問題,OpenAI創辦人奧特曼(Sam Altman)接受外媒採訪時表示,他認為這個問題可以隨著技術提升而被解決,「我樂觀認為,我們可以進入這樣的世界──這些AI模型可以成為減少、而不是強化社會偏見的力量。」
然而,樂觀期待對許多倫理專家來說可能還不夠。分散式AI研究所(Distributed AI Research Institute)創辦人蓋布魯(Timnit Gebru)作為對AI偏見議題有深度研究的資訊科學家。她認為,這些科技公司如果沒有受到外在壓力,不會去自我約束。
「我們需要監管機制,也需要比利潤更好的動機。」蓋布魯表示。
斯莫特也認為,AI演算法需要受到社會監督與規範。他強調:「我們呼籲提高演算法及其運作透明度和問責機制,建立獨立的申訴管道,並能讓不是AI專家的公民組成委員會,定時審核AI系統並發布報告。」