「請打開救生艙門,HAL﹗」經典科幻電影《二○○一:太空漫遊》中的太空人大衛與超級電腦HAL的最後對話,當HAL一句冰冷的「抱歉,大衛,恕難從命」「再講下去也不會有結果,再會」接著關掉太空人的維生系統,彷彿早在五十年前就已預告,超級電腦將有意識的控制並對人類生活帶來濤天巨變。時至今日,對比生成式AI的崛起與迅速發展,其造成的人權風險威脅,又再度喚起了大眾目光。
人工智慧浪潮被喻為第四次工業革命,生成式AI如火如荼襲捲百業,卻也對人權產生劇烈影響。歐盟率先發布全球首部《人工智慧法案》,強化AI技術的信任、透明度與問責;以民主科技立國的台灣,為順應國際規範,國家人權委員會日前舉辦「人權同行 AI無虞」論壇,邀請澳洲、法國及國內產官學研之專家學者集思廣益,共同探討生成式AI造成的人權風險,提供政策制定者、企業與社會思考方向,實現可信賴AI的願景。
國家人權委員會主委陳菊開幕致詞時表示:「AI為現代生活帶來便利,提升工作生產力,但我們也看到它對於不利處境群體所帶來的影響。」尤其生成式AI可能導致的人權危害已逐漸浮現,假訊息威脅言論自由、取代勞工造成失業風險、深度偽造(Deepfake)與性暴力,與造成兒童無法辨識AI與真人等四大危機,凸顯推動科技進步之餘,更要確保每個人的基本權利免受侵害。
演算法偏誤恐加深偏見歧視
澳洲人權委員會委員 Lorraine Finlay進行專題演講時表示,生成式AI引發隱私權與假訊息疑慮,將威脅言論自由,各國政府努力尋求解方,澳洲人權委員會倡議運用「人權影響評估工具」,以評估新產品、服務、法律或政策對人權的影響,確保採行適當措施減輕相關風險,已協同開發了《人權影響評估工具:銀行業的人工智慧》。
個人資料保護委員會籌備處組長林逸塵回應指出,大語言模型具不透明性、個資來源多樣、在識別風險及敏感資料濫用等問題,國際間正逐步提出AI議題的法規與指引,呼應人權風險議題,AI的開發與應用需考量演算法的公平性與歧視問題,找出最需要注意隱私資料保護的關鍵環節,進而採取必要保護措施,負責任的開發與應用AI技術,達成社會公平與正義。
而東海大學哲學系甘偵蓉老師認為,利用AI技術故意偽造事實,如金融詐騙、選舉干擾、性猥褻嚴重影響日常生活,第四代人權必須走向確立知識權(epistemic rights)。
生成式AI帶來公民參與機會
面對生成式AI所衍生的善與惡,民間與產業界有不同見解。
台灣人工智慧學校基金會秘書長侯宜秀進行專題演講時提及,AI看似解決價值對齊的問題,但關鍵在於對齊誰的價值?從電影《太空漫遊》到通義千問顯示任何規避審查都不合法,台灣原定去年十月推出AI基本法,但因技術發展太快、應用領域太廣,國科會目前仍在研擬中。
「不要急著 Top-down(由上而下)做一個決定,反而是資料治理、著作權的界線怎樣才算合理使用,保護個人隱私才是更急迫的課題。」侯宜秀呼籲慢慢來比較快,法規應隨科技進步新增修訂,產官學還需累積更多共識。
產業界代表也呼應,「實踐負責任的AI未來治理藍圖,是微軟的品牌核心價值之一,從二○一八年起推動公開負責任AI的六大原則」,微軟總經理施立成這樣表示,「台灣處於全球AI生態系樞紐的關鍵,更要負責任地擁抱AI,確保治理促進創新,建立安全、合規並以公民社會價值為中心的未來。」
參酌國際規範建立法律框架
法國國家資訊自由委員會主任 Sophie Nerbonne 於最後一場專題演講時指出,歐盟恰於論壇當日發布了全球首部監管AI的《人工智慧法案》,基於風險程度,將AI系統分為「不可接受風險」、「高風險」、「有限風險」和「極低風險」四類,並採取相應的監管策略。
臺灣大學國發所教授劉靜怡介紹美國、日本、韓國及新加坡之AI規範指南與政策方向,並期許台灣能找到適當定位,確保不違逆倫理和法律的基本要求,落實以人為本的AI發展,方能提升公民信任。
當AI技術可能加劇世界上任何國家內部,及國與國間現存的分歧與不平等時,維護正義、信任和公平,避免國家和個人從此一行列脫勾掉隊就顯得特別重要。台灣標榜民主自由,必須勇敢面對AI帶來的人權挑戰,防範於未然,才能擁抱更美好的未來。