為保護人類存亡、保障未來工作,全球兩千多位跨領域領袖在今年一月,用前所未有的認真態度聯合簽署二十三條AI發展原則,也呼籲政府做些事情。
他們討論AI技術、人類威脅,更重要的是,探討政府應做好哪些規範,才能讓人類避免被AI的科技反噬、讓AI的發展能夠確保安全。
這天到場的,包括臉書AI負責人勒丘恩(Yann LeCun)、谷歌研究主管諾米格(Peter Norvig)、蘋果共同創辦人兼Siri首席技術長葛魯伯(Tom Gruber)、特斯拉創辦人馬斯克及因製造出「AI棋靈王AlphaGo」而暴紅的DeepMind執行長哈薩比斯(Demis Hassabis),共超過兩百位AI專家。
霍金:須確保AI設計 符合倫理
這些人橫跨科學、經濟學、法律、倫理、哲學領域,象徵著人類智慧的巔峰,但全都聚集起來,耗費兩天兩夜時間,在「海上避難所」開會,並聯合簽署二十三條AI發展原則。聲明指出,「全球相關領域必須嚴格遵守這些規定來發展AI,才能保障人類未來安全。」
席間,多數科學家認為,政府應率先針對AI背後的研發者進行限制,加拿大蒙特婁大學教授本迪戈(Yoshua Bengio)就在會議上強調,AI訓練師、開發者、政府應共同思考,如何納入「價值觀」共識,「我們應該承擔更多責任,將正確的原則列入AI行動。」
事實上,參與簽署的物理學家霍金(Stephen Hawking)也曾表示,AI可能進化得比人類更快,且人類無法預測它們目標是否與人類相同,因此,政府必須確保AI的設計符合倫理規範。
於是,「慎始」成了「阿西羅瑪人工智慧原則」的第一個重點。關於AI技術的研發目標,條文是這麼寫的:「AI的研發不能沒有目標方向,它只能有一個目的,對人類有益。」
不只如此,條文也規定,任何對於AI的投資計畫,都應該在同一時間另行提撥資金用於「解決衍生問題」的研究,例如經濟、法律、道德問題等。
簡單來說,這二十三條法則,就是要先確定「人」的心態必須正確。「很多人是看了科幻電影才會害怕AI,事實上,真正問題在於人心。」雖然沒有參與這場會議,但微軟全球資深副總裁洪小文認同「從人心開始管理」的企圖。
「真正決定其用途的,是背後的使用者。」洪小文強調,「面對AI威脅,政府應該要有的思考方向,是如何立法限制人類,不能利用AI做非法事情。」
他並舉例,若有人製造了無人駕駛車,但這個無人車卻刻意衝撞某人,「要管束的,是背後製造這種車的人。」這樣的概念,也可在「阿西羅瑪原則」第九條看見:AI技術的設計者、製造者,是這項技術各種應用的利害關係人,也要負起相應責任。
馬斯克:人類落後AI 恐摧毀文明
不過,自駕車所衍生的問題聯想還沒結束,IBM華生認知解決方案業務協理許堯睿就舉例,「假設自駕車被設定『以保護車主性命為第一優先』,但會不會有某個情況,自駕車經判斷發現,保住車主性命的方法是衝向人行道,而忽略了可能撞傷無辜路人?這樣的AI判斷就涉及倫理問題。」
這些問題,在阿西羅瑪AI原則中暫以概略性的「人類價值」涵蓋,條文中規定,「必須確認自動化系統的所有行為能夠符合人類價值」、「AI系統的運作須相容於人權、自由與文化差異」。
另一方面,「透明度」也是法則的重點之一。SAS台灣創新中心資深顧問林輝倫就說,當AI能知曉你所有生活習性,「這樣的個資若落到有心人士手上,就可能濫用AI的預測能力引發犯罪。」
「人們有權力去介入、管理、控制他們所生成的資料數據,並決定是否讓AI系統進行分析。」第十二條法則這麼寫到,藉此確保個人隱私不致遭到濫用。另有一條則指出:AI對個資的運用,不得在不合理的情況下造成人身自由的減損。
二十三條原則中,對於透明度的規範不僅於此,也包括AI系統本身的透明度必須要能受到檢驗。例如第七條就規定,「如果系統造成任何傷害,必須確保能夠查明運作失當的根本原因」。
「假以時日,AI可能比人類還聰明。AI持續進步的同時,人類文明若非跟著進步,否則就會被摧毀。」這是馬斯克在論壇中一段語重心長的警語。跟隨這段發言,二十三條原則裡,對AI的發展、甚至是「自我進化」,提出了一些避免失控的控管想法。
舉例來說,要求「團隊必須確保AI系統『終其一生』都能安全運作」,再者,「必須杜絕出現『AI致命武器發展競賽』的任何可能」。
不過,真正精準回應馬斯克憂慮的一條原則,出現在第二十二條:「AI系統,如果被設計具有自我進化、或自我複製的行為能力,很可能會在短期內造成人工智慧『質與量』的大幅提升,因此,這類功能必須被嚴格控制。」
AI真有那麼狂?竟讓全球兩千顆頂尖大腦早一步限制它的自我進化!這或許仍是個答案眾說紛紜的問題。但無論如何,當愈來愈多專家對人工智慧的發展從興奮轉為「有點害怕」,當美國白宮在去年底連發三份報告提醒世人AI入侵,對於人工智慧將如何衝擊社會、文化與經濟,的確已是必須未雨綢繆、提早思考的世紀課題了。
▲點擊圖片放大