文/張立健(南洋理工大學社會學部博士生)
自去年底以來生成式人工智慧
(Generative Artificial Intelligence) 引來連鎖反應,最近令人關注的是 3 月 26 日於網上跨國聯署〈暫停大型人工智慧實驗的公開信〉(Futureoflife.org,
2023) (以下簡稱〈暫停公開信〉) 信中聯署者包括全球首富、Tesla 和 Twitter 的首席執行官馬斯克,聯署名單中更有科技業界的大佬如
Apple、Skype、Pinterest、Petty
Images、Ripple
的等共同創辦人所加持,全文不過五百九十字的〈暫停公開信〉,卻引起軒然大波。除了數十位科技產業界的創辦人之外,有來自麻省理工學院、牛津、劍橋、哈佛和東京大學的人工智慧或相關學科學者聯署,名單中更有達三百位來自世界各地的教授和九位美國國家學院的成員,還有在《人類大命運》中大力指出數據主義的風險的歷史學者哈拉瑞
(Harari, 2017)、行內最權威的教科書《Artificial
Intelligence》共同作者
Stuart Russell (Russell & Norvig, 2022) 教授以及發現「聯想神經網絡」的神經科學專家 John
Joseph Hopfield。
而且已有逾
25,000 人跨國聯署的〈暫停公開信〉,其聯署人數目更在增長中,比起
2017 年由同一機構未來生命研究所發起的另一封〈人工智慧原則〉(Futureoflife.org,
2017) 公開信更受注目。在芸芸媒體報導和評論下,更再一次引起民眾對人工智慧的恐懼,到底信中是否反對人工智慧的發展,因為人工智慧對人類是百害而無一利的?
人工智慧上線 反應憂喜參半
支援 40 種語言的 Chat GPT 去年底(2022)上線 ,其一問一答在網上迅速流行,主流媒體和社交媒體一直討論生成式人工智慧帶來的直接或間接的影響,比如此程序可以輔助寫作、研究和整理資料,只要輸入資料可以為傳媒編新聞初稿,也可以為公眾人物撰演講稿,甚至乎能像作家般寫出故事情節,數月來成為資訊科技界熱議的話題。隨後,當谷哥與微軟持續接力,先是谷歌於今年3 月 (2023) 於其電郵和文書處理器等服務推出人工智慧助理,後又有微軟發佈最新名為 Microsoft Dynamics 365 Copilot 的軟件,提供的智能的文書處理服務。日後我們日常所使用的文書處理器都配備了,類似於 ChatGPT和 Bard 般的人工智慧助理,以後只需簡單一按鍵便擁有電腦準備好的書信草稿、會議紀錄、試算表格和演講大綱,如此一來日後完成大部份文書工作會更省時省力。而且紐約市政府果斷限制公立學校內的電子設備訪問該網站,後來是新加坡政府宣布將引入該技術給公務人員作搜尋資料和寫稿之用,最近意大利政府卻禁止國民使用,同時引來中美大國技術之爭的另一比較點。有人測試過由微軟投資開發的 Chat GPT-3 or GPT-4 聊天機械人,它能通過醫生和律師的資格考試,令人擔心人類專業工作的保障也受到挑戰。
人工智慧專家、東京大學工學研究所的松尾豐教授,他於《了解人工智慧的第一本書》中強調「人類的智慧,沒理由不能在程式上實現」,那麼未來我們還有可能找到工作和理想的生活嗎?到底企業、政府與機構能否按趨勢而調整,鼓勵學習,同時容許組織按需回應改變?
〈暫停公開信〉,是不切實際或另有所圖?
以下將利用貝克
(Beck, 1992, 1999, 2009) 的次政治 (subpolitics)和風險社會
(risk society) 概念來說明〈暫停公開信〉的討論。
貝克提出的次政治
(subpolitics),由直接的、由下而上的、媒體符號的、超越國族國家中代議制的政治行動。就如綠色和平於
1995 年夏天針對蜆殼石油的杯葛運動,事件亦反映了五個特徵:具感染力、宣揚憤怒的道義、政治權宜之計、做簡單的替代行動、不顧生態的自我沉迷。
貝克
(1999:39-40)
強調:
1. 信中沒有說應該要停止人工智慧技術的研究與開發,而是提出對失控中的 Generative AI (AGI) 競賽中 ,連開發者也無法預測、理解和管控其系統。信中呼籲開發商要暫時退一步,未來六個月別要開發 GPT-4 更高階版本的學習系統,以免墜入危險之中。假如開發商不願暫停,政府應該介入;
2. 但信中強調人工智慧會為社會帶來前所未見的風險和人類的災難性後果,可能帶來不合符人類價值觀的壞處,包括會引致大規模失業的危機,並且可能進入後人類時代;
3. 信中反對的是,沒有管制的人工智慧技術開發!提議由獨立的專家監督下,定立規劃與管理該技術的協議,令其成為「更加準確、安全、可理解、透明、穩健、一致、值得信賴和忠誠的先進系統」,從而利用人工智慧帶來豐盛的人類未來;
4. 與此同時,人工智慧的開發者須與政府合作,包括制定監管、審計和認證系統、對人類危害的責任系統、研究安全人工智慧的公共研究資助、制度化來回應經濟和政治的衝擊。
〈暫停公開信〉中提出人工智慧對人類帶來了潛在的風險 ,換言之,這一批專家相信人工智慧不再只是明日黃花,連他們也間接肯定人工智慧對未來人類的風險,亦是人為造成的問題之一。雖然平時這些專家都站在不同的位置、背後利益各異、對科技創新各抱不同的理想,但至少今次聯署對暫緩人工智慧的立場上是一致的。但由於這似是「軍備競賽」般來自各國政府與科技巨鯨間的較勁,而且可想像當該技術成為開源碼的話,流入民間會引來更多不確定性,因此 AGI 的問題不止於 OpenAI。
〈暫停公開信〉倡議作為次政治實踐
由於現代化和風險洗刷了舊機構的舊功能,種種制度如家庭和政府已跟不上了社會變遷,因為人為製造的不確定性已超越國界,導致國家—技術—經濟的瓦解,比如上述提到的三億人失業危機。貝克
(1992) 認為不再如以往活在重新分配好事的工業社會,而是活在風險社會減少壞事的時代。
同時,貝克
(1992) 認為國家—技術—經濟關係正在瓦解,令大眾對專家信任下降,因為他們已失去了保障大眾安全的作用。他對技術—經濟的看法,由於科學理性和技術—經濟提高生產力和加速個人的結構性個體化,而風險是如何通過專家而被淡化、固化、隱化的,但科學理性和專家們亦將面臨被取代的契機之中,難以面對具反身現代性的民眾
(Beck et al., 1994)。一方面,技術—經濟常以理性與進步之名,為了經濟發展要社會大眾接受其未知的風險,以技術事先決定了社會走向。推動經濟發展卻不顧對科技的政治和社會後果,比如工業生產擴大而引致今日的生態災難。
另一方面,社交媒體和網絡公民抬頭,以次政治的方式在建制之外監督政府、技術—經濟、學術教育以及社會福利。
面對風險社會下的「政治變成非政治,而非政治變成政治」,貝克
(1992)因此提出要解放工業社會中的科學和政治,要開放現有的政治系統,而不該假借技制—經濟之名以非政治化處理。因而貝克
(1992: 229) 所謂的「技術—經濟的次政治」 乃可以負擔議會之責,由風險社會帶來的不確定性,開啟了更平等、更自由和自我表現的機會。「次政治」反抗了工業社會中的局限、功能性指令和進步宿命論。當終結進步的共識、以靈活的方式來去差異化
(dedifferentiations),想解放工業社會中的科學和政治,便要開放現有的政治系統,達致民主化。
〈暫停公開信〉亦直言政府的角色和人的參與是重要的一環,我們既要推進人工智慧服務人類之餘,亦要深入研究如何安全地使用它。也許暫緩是個好事,來個「人工智慧的仲夜夏之夢」來達致各個社會的多方共識,找到平衡科技與社會的出路,以免將人與科技放在對立面。
議論的力量 超越決定主義
總而言之,人工智慧能為人類帶來什麼風險、有什麼對應辦法,並不該交由科技巨鯨來決定,各國政府以及由下而上的次政治亦將有其角色。無論一系列人工智慧新軟件系統出台引來〈暫停公開信〉的討論結果,是否引來海內外的次政治,乃至次政治的跨國連結?到底該否暫緩一下人工智慧的井噴式開發,以及鼓勵制定相關協議,來準備迎接所謂的「後人類時代」。
〈暫停公開信〉提議暫緩也許是好的
(Futureoflife.org, 2023),可是假如真的暫緩六個月的話,各個社會該思考什麼?雖說 OpenAI 並不打算於短期內研發 GPT 的第五代,在其他科技巨鯨推出下一代人工智慧工具之前,到底我們會否因為恐懼而徹底放棄,或是繼續擁抱人工智慧,建立跨國像綠色和平般的跨國組織來關注科技與社會?
討論比不討論好,像百多年前民國時代的學者胡適 (1919) 所言,多談些問題,研究些解決方法,不畏難求易,比起空談科技決定主義 (Technological determinism),合理多了!