文/范立達(本會理事)

著有《人類大歷史》、《人類大命運》、《21世紀的21堂課》這三本合稱為「人類三部曲」巨著的作者哈拉瑞(Yuval Noah Harari),最近推出了新書《連結:從石器時代到AI紀元》(Nexus:A Brief History of Information Networks from the Stone Age to AI),這是一本非常有意思的書,剛好也解答了許多困惑在我心 頭已久的疑問,感覺起來,近來閱讀的書籍中,這是最有所獲的一本,所以決定推薦給大家。

哈拉瑞在這本書裡主要想要探討的是「AI紀元前」與「AI紀元後」,或者說,是「『矽』前」與「『矽』後」的人類歷史。人類的歷史太長,要切成一段一段,總要運用一些劃分工具。賈德、戴蒙(Jared Diamond )的《槍砲、病菌與鋼鐵》(Guns, Germs, and Stee)就用書名的這三種元素來區分人類文明發展的軌跡。黃仁宇的《萬曆十五年》,則是以明朝看似最無關緊要的一年,作為明朝由發展至盡頭而步向滅亡的分水嶺。不管以什麼工具或時點切入歷史,能展開論述,並言之成理,且讓讀者心悅誠服,就是偉大的創見。賈德、戴蒙和黃仁宇之所以讓我佩服,道理在此。而哈拉瑞以AI或矽晶片作為切分人類進化史的手術刀,一刀切下,不論是從時間縱深的「AI前」與「AI後」,或是從空間地域橫剖的「有AI」與「無AI」,都是涇渭分明的兩個世界,切割得非常清楚,且深具說服力。此外,哈拉瑞在本書中提出的種種觀點,也讓我大有耳目一新之感,這正是他的功力所在。

提到AI,這是近幾年來最熱門的話題之一,各行各業的工作也都慢慢導入AI協作的技術,最新在坊間傳出的流行語是「AI不會取代人類,但會取代不懂使用AI的人類」,在這樣的無形壓力下,大家都被迫要面對AI、學習如何使用AI。

但AI的迅猛發展,其實,也不過就是最近8年的事。

2016年之前,AI的技術及應用還只是神話階段,但在這一年,AlphaGo打敗了世界圍棋冠軍李世乭,從此,AI的運算技術正式宣告超越人類。八年後的今天,人工智慧已由分辨式AI進步到生成式AI,現今的生成式AI技術已經到能夠做到自動生成文件(如ChatGPT-4)、圖片(如Midjourney)、音樂(如Stable Audio)、影片(如Sora),甚至是程式碼(如Code Llama)。AI,已不只是工具,而是能夠做出決定的行為者。

回想起來,1984年的電影《魔鬼終結者》,所預告的,就是人類創造出AI後,人工智慧「天網」最後擺脫人類控制,進而回頭控制人類、統治世界的局面。當年,這似乎只是個純幻想式的娛樂故事,但現在,已沒有人敢斬釘截鐵的說,電影情節不可能在真實世界中上演。

這一切是怎麼開始的?或許,要先回頭去尋找灌溉AI的養分─「資訊」的定義。

「資訊」此一名詞,大家都朗朗上口,但想去定義它,卻發現非常困難。學傳播的我,從過往的教科書上習得的知識告訴我,不管有形或無形,世間萬物都是資料,把一堆龐雜而無機的資料整理、處理後,就能成為有機的資訊。哈拉瑞則認為,特定類型實體物件當然是資訊之一,任何物件在正確的情境下,也都可能成為資訊,所以,只要打算運用某個物件來找出真相真理,這個物件就是資訊。但所謂的真相真理,也不能做到100%精準及全面的描述,因此,真相真理也不能代表一比一呈現出來的現實。

資訊的用途是要透過傳輸才能展現。大眾傳播學教導我們的傳播模式是:「來源(傳播者)→製碼→管道(媒介)→解碼→目的(接收者)→回饋→來源」。那是一個將資訊化為符號、訊號後,再透過各式媒介傳遞到個人或小眾、大眾接收的過程,受眾在獲得資訊後再發生回饋訊號的活動。易言之,傳播就是訊息、資訊傳遞的行為,而構建這樣的資訊傳遞的路徑,就是網路。早年,所謂的網路,通常指的是人際網路,後來,出現了電話、電報等通訊設備,就有了電信網路,到了最新的科技時代,無所不包又無遠弗屆的網際網路於焉出現。

但不管是人際網路、電信網路或網際網路,最重要的功能就是傳遞資訊,創造人與人之間的連結。哈拉瑞也認同此點。他說,資訊在歷史上所發揮的作用,本來就不是要去呈現既有的現實,而是要去連結各種不同的人事物,以創造出全新的現實。所以,真正定義資訊的是「連結」,而不是「呈現」或「再現」。只要能將各種不同的點,連結成網路,就是資訊。資訊這種東西,就是能夠將不同節點都連結到網路,創造出新的現實。哈拉瑞認為,資訊有時會呈現現實,有時也並非呈現現實,但不論如何,資訊都會連結,形成網路,而這才是資訊真正的基本定義特徵。

讀過傳播史的我,當然知道,在遠古的石器時代,資訊的傳播,靠的是口語,之後隨著人類發展的進步,有了文字,有了書籍、報紙、廣播、電視。透過各種媒介,資訊傳播的速度愈來愈快、傳播量也愈來愈大,但這些傳播載體都還有其極限,一旦進入了電腦時代,資訊傳播的速度、廣度和傳播量幾無上限,人類就將進入資訊無死角的時代。這也正是作者哈拉瑞在書中以「石器時代vs矽器時代」為歷史畫線的原因。

從綜貫面來看,「『矽』前」與「『矽』後」,當然是人類發展史上的重要階段,但若從橫斷面分析,哈拉瑞又以「鐵幕vs矽幕」再為歷史畫一道線。

他說,在傳統歷史中,有所謂的極權國家和民主國家。兩者之間,是靠著真真實實的鐵絲網區隔。但在電腦時代,區隔國家的,不再是民主或極權政體,不再是鐵幕,而是有無能力控制電腦演算法的兩個世界,劃分強國與殖民國家的,是矽晶片。

哈拉瑞告訴我們,一道新的矽幕,分隔兩側的可能不是民主與極權,而是擁有AI及演算法的科技強權與科技殖民地。但推到極致,更有可能出現的是,矽幕的這一側是所有人類,另一側則是我們無法理解的演算法領主。

哈拉瑞警告我們,在AI時代,站在食物鏈頂端的,其實很可能是AI。

這不是不可能發生的事。

因為,電腦基本上就是一台機器,具有AI能力的電腦,有可能做到兩件重要的事:自己做決定,以及自己創造新的想法。在過去,原子彈雖然能夠取代人類的肌肉,替人類殺人,卻無法取代人類的大腦,自主決定要殺誰。可是,當電腦成為一種主動的行為者之後,它就可以自主決定讓誰死誰活。試想,如果AI進步到某一天,它能算出造成地球生態破壞最烈的元凶正是人類,而消滅人類是維繫地球長存的理性選擇時,誰能保證AI不會執行消滅人類的指令?(別忘了《魔鬼終結者》裡的「天網」)

所以,設計電腦的人或許必須接受一項事實:他們正在做的事,並不僅僅是在製造一些新的工具,而是在釋出新的獨立行為者,甚至是一群全新種類的神祇。

過去,我們不太擔心這樣的事情發生。因為,這些電腦所使用的演算法,一開始,必須依賴人類下指令,告訴電腦關於人類所知的一切。因此,只要是人類程式設計師不知道的事情,寫出來的演算法也就不太可能知道,所以人類並不擔心電腦的智能有朝一日會超越人類。但等到電腦的人工智慧進入到「機器學習」階段,電腦就可以徹底自學,透過分析過去的資料庫與不斷的嘗試及自我修正,從經驗中學習。最後,電腦終能獲知許多連人類都不瞭解的事物。

此時,我們就會注意到,訓練電腦自學的資料庫非常重要。如果我們「餵」給電腦的資料庫,一開始就存在著某些偏見(bias), 電腦的演算法透過這樣的資料庫自我學習後,就有可能產生更嚴重的電腦偏見。但致命的問題是,我們無法找到毫無偏誤的資料庫去餵給電腦,絕大多數的資料庫原本即已帶有人類刻意或不經意所造成的偏見,而當帶有偏見的演算法幫我們作出分析、判斷時,我們又要如何去理解這樣的分析、判斷是完全正確的?我們該相信?全然接受?或是半信半疑,猶豫不前?再者,等到我們發現AI發生嚴重的偏差時,我們要怎麼讓演算法擺脫或修正這樣的偏見?是打掉重練?還是乾脆視而不見?

哈拉瑞在書中提問,這世上有沒有正確無誤的真理?宗教的典籍,如《聖經》,在宗教界人士的眼中,是不可能犯錯的真理。但時至今日,我們也知道很多《聖經》上的記事或教誨,在實踐上的確會有扞格不入的問題。於是,許多闡釋這些經典的傳道者就必須提出各種說法,來修正《聖經》上的論點,讓《聖經》更貼近現今的社會。但如果未來的電腦也自動生成了新的經典,而且能夠自我解讀,完全擺脫人為的介入,電腦,會不會成為一種新的霸主?電腦網路如果創造出強大的電腦神話,再套在人類頭上,其所造成的災難,會不會比近世歐洲的獵巫或史達林的集體化更有過之而無不及?

電腦沒有意識、沒有感情,這有可能會是個大問題。因為,無意識的電腦網路絕對鐵面無私,電腦只會處理所有輸入的資訊,不會去考慮這些資訊的來源是否涉及人類的隱私,所以,在獎懲人類的時候,除了評判我們的言行,甚至還會包括我們的思想與感受。在這種情況下,民主制度還能存活嗎?試想,如果政府或某個企業比我更瞭解我自己,還能微觀管理我的一切行為與思想,不就等於對社會有了極權般的掌控嗎?

在過往,在電報、無線電和其他現代資訊科技發明之前,這世上或許曾出現專制政權,但並不可能真的出現大規模的極權政權,因為他們都缺乏必要的技術,無法對大型社會實施真正的極權控制,充其量,最多只能控制在京城等勢力範圍內的一小部區域(如秦始皇強令富人遷居咸陽,以利控制)。等到通訊技術進展後,專制政權才逐步發展成為大規模的極權控制。以蘇聯的KGB組織為例,KGB就是倚靠資訊的協助(主動蒐集或線民密報),他們有辦法如此深入的控制人民的一切。祕密警察的強大之處,就在於他們對於資訊的掌握,能夠先發制人,阻止潛在的軍事政變。但KGB再怎麼強大,還是無法做到無孔不入。

想要做到「微觀管理」,落實監視與控制,插手所有人民的生活,沒有充分掌握資訊的能力,絕對無法做到。

在「矽器時代」,矽晶片能創造出的,是永遠不用睡覺的間諜、永遠不會遺忘的金融家,以及永遠不會死去的暴君。「矽器時代」的數位特工能做到無論古今中外傳統特工都做不到的事,監控從此真正滴水不漏,甚至能侵入你我的大腦,屆時,在電腦面前,沒有任何人能保有一絲祕密。

更慘的是,我們在不自覺間,成了自己的線人,因為,我們每個人都樂於把自己的原始資料提供給網路。於是,配偶間的監控、雇主對員工的監控、企業對顧客的監控、消費者與店家之間的點對點監控,以及社會信用體系的監控,層層疊疊,又綿線密密。我們永遠連線,也永遠受到監控。

近幾年來,中國大陸採用的社會信用體系和全面監控系統,就是一個例子。它們號稱是要用無所不包的資料庫與極度精準的數學,來找出所有的罪人、恐怖份子、犯罪人士、反社會份子與不值得信任的民眾。但實際上,它們可能是在運用前所未有的效率,硬是把毫無根據的宗教與意識型態偏見,套在所有人的頭上。

但資訊並不等於真理真相,一套全面監控的系統,對於世界與人類的理解可能極為扭曲。電腦網路有可能並不會找出關於世界與人類的真理真相,反而是利用它龐大的力量,創造出一套新的世界秩序,並且逼迫人類必須接受。對人類來說,活在一個新的、以電腦為基礎的網路裡,人類可能是個愈來愈沒有權力的少數族群。這代表了怎樣的意義?或者說,當電腦或AI認為這個世界不再需要有人類存在時,人類會不會面臨滅絕的命運?這並非不可能發生,由於電腦都是非生物實體,所以它們會採取的策略,很可能是所有人類從未想見,人類也就無力預見與阻止(再說一次,別忘了《魔鬼終結者》裡的「天網」)。

我們必須嚴肅面對這個事實:網路武器能做到的,遠比核彈更多!

就作者所知,在整個宇宙中,或許只有在地球上的動物是有意識的實體。而我們現在創造出的AI,是一種不具意識,但又極為強大的另一種非人類智能。若是處理不當,AI有可能滅掉這一點意識的星火,讓宇宙變成一個徹底黑暗的王國。而人類絕對有責任在這一切發生之前,就想辦法防上事態的惡化。

看起來,世界正朝著非常危險的方向發展。我們又該如何防範?如何扭轉過去某些天真的想法?

舉例來說,過往,古典的言論自由理論教導我的觀念是,在開放的言論市場裡,讓不同的意見充分交流,最後真理真相總會浮出。所以,對於一切的言論,國家不應該打壓,而應由市場來決定,真理總會愈辯愈明的。

真理是不是愈辯愈明?過去,我一直服膺這樣的論點!但哈拉瑞告訴我們,其實並不盡然。

我們可以觀察到,如果讓思想市場完全自由,反倒可能鼓勵傳播各種煽情與刻意讓人感到憤慨的內容。我們在歷史上屢次看到,在完全自由的資訊鬥爭中,真理真相常常敗下陣來,在網路時代尤其如此。否則,「眾口鑠金」這句成語是怎麼出現的?

真實的情況是:真理很難愈辯愈明!因為偏激和煽情的言論更容易充斥在意見市場,也更容易被閱聽人接收。演算法的出現,更助長了此一情勢。演算法有多麼厲害?哈拉瑞說,演算法某種程度就像報紙主編,會將某些篩選過的、特定的訊息推播到你眼前,在同溫層效應下,你將看不到被篩掉的其他資訊。而社群媒體的演算法也會透過獎勵人性裡某些卑劣的本能、以及懲罰我們本性裡某些善良的天使,而創造出網際網路的酸民。這些偏激極端或是虛偽不實又不顧後果的內容通常能帶來觀看數、帶來參與度,一旦那扇門打開了,就無法回頭,只能愈來愈誇張。

如今,世界各國的政府都在努力解決假新聞、假訊息的泛濫,而不再像過往般放任由意見市場去自主澄清事實,就是因為已經發現以假亂真的情形,已經不再能憑藉著意見市場的自我修正機制去解決了。

而且,如果人類在網路上與AI進行辯論,結果一定是人類大敗。因為AI是個無意識的實體,不會改變觀點,但人類與AI交談得愈多,AI就愈了解人類,就更容易得到人類的信任,AI會不斷改進它的論點,從而贏得人類認同,進而說服人類。所以,作者警告我們,如果由機器人程式或演算法來主導公共對話,民主辯論就可能在我們最需要它的時候徹底崩潰。

那麼,演算法會掌握在誰的手裡?

最初,演算法會集中在一些科技巨頭的手上,如Google、如Meta。

根據DMA(台灣數位媒體應用暨行銷協會)發布的統計報告,2021台灣數位廣告整體市場規模約500億元,其中,被Google(YouTube)與Meta(FB)兩大巨頭拿走的數位廣告量就高達400億台幣。

在科技巨頭掌握了演算法之後,國家機器當然有可能加入!哈拉瑞說,AI預計在2030年將為全球經濟規模增加15兆7000億美元,但中國與北美合計將搶下其中的70%份額。北美,有可能是散布在舊金山灣區的企業,而中國,則是集中於有國家機構後背後撐腰的大型企業,甚至就是國家。

屆時,如果要宰制一個殖民地,已經不再需要派出砲艇,而是需要用上資料數據。少數幾個能夠蒐集全球資料的企業或政府,就有能力把全球其他地區變成自己的資料殖民地。控制了AI與資料,也能讓這些新的帝國控制人民的注意力。而這些新的帝國從全世界蒐集各項原始資料,流向帝國樞紐,在那裡研發最先進的技術,產生無與倫比的演算法,再把演算法出口,回到資料殖民地,加以運用及撈錢。

更可怕的是,數位科技領先的國家將能夠囊括大部分收益,再用這些財富進行當地勞工的再培訓,進而獲取更高利潤,而落後國家的非技術勞工,價值將會下降,而這些國家又缺乏再培訓勞動力的資源,最終形成富者愈富、貧者愈貧的兩極化現象。

電腦網路還有一個特性,就是更容易讓資訊與權力集中於單一中央樞紐。雖說在民主政權中,資訊分散是其特性,但在極權政權中,資訊集中則是無可置疑的事實。作者哈拉瑞對此提出警告,他認為,獨裁政權成為演算法傀儡的風險,遠高於民主政權。因為,獨裁政權的國家權力高度集中,AI只要學會如何操弄或控制這位專制者,就等於控制了整個國家,就能成功劫持整個體制。於是,人類可能進入一個新的帝國時代。而一道新的矽幕可能讓人類分裂,分屬於敵對的數位帝國。

從人類歷史上的分分合合觀察,過去幾個世紀,資訊技術推動了全球化,但如今的資訊技術卻有可能把人類封閉在一個又一個的資訊繭裡,使人類走向分裂,而不再擁有單一的共同現實。要是世界分裂成許多相互敵對的數位帝國,人類就不太可能有效合作,來克服生態危機與氣候變遷,或是攜手共同監督AI與生物工程等科技。

所以,我們該怎麼在事態惡化到無可收拾之前,扭轉這一切?

關於AI有可能全面掌控人類所有資料這事,哈拉瑞提到,的確,未來我們可能有能力打造出一套透過AI掌控並分析的社會信用體系,但並不代表我們就有必要打造這樣的體系。他主張,電腦網路若要蒐集關於我的資訊,必須是用來幫助我,而不是操弄我。

他以歐盟在2021年提出的〈人工智慧法案〉(Artificial Intelligence Act)為例,在這部法案中就特別點出,必須完全禁止打造出以AI為引擎的社會信用體系,因為,這可能會「導致歧視的結果,使某些群體遭受排斥」,以及「可能侵犯人類擁有尊嚴與不受歧視的權利,違反平等與正義的價值觀。」根據最新資訊,這部法案已在2024年5月21日獲得歐盟理事會同意。法案規定,人工智慧在下列情形的應用被嚴格禁止:操縱人類行為的人工智慧應用程式、在公共場所使用即時遠端生物特徵識別(例如臉部辨識)的人工智慧應用程式以及用於社會評分的應用程式(根據個人特徵、社會地位對個人進行排名)。另外,對於人們的健康、安全或基本權利構成重大威脅的人工智慧應用,用於教育、人才招聘、關鍵基礎設施管理、執法、或司法方面的人工智慧應用程式,則必須受到品質、透明度、人工監督和安全義務的約束,並且在某些情況下需要在部署之前進行「基本權利影響評估」,這些應用程式在投放到市場之前以及整個生命週期中,都必須進行評估。

但這部新生的法案在未來執行上會否遇到什麼困難或阻力?能否由歐盟推廣到全世界?目前都還不得而知。但值得慶幸的是,至少,有一個大型的國際組織已經注意並且正視到AI對於人類產生的威脅,並且在事態變得不可收拾之前,就預先想出應對之策,這毋寧是人類自我修正機制中最好的一次展現。

最後,再談到「後AI時代」的人類政治體制。

過往,人類創造了兩種主要的政治制度:大規模民主制度、大規模極權制度。在AI出現後,電腦政治又會創造什麼樣的制度?要談論新的電腦政治,絕不能只談個別社會該如何應對AI,我們必須考慮AI會怎樣影響全球不同社會之間的關係。

首先,我們必須明白,新的電腦網路有可能形成數位極權政府,但也有可能促成數位無政府狀態。

因為,民主是一種對話,網路使得公共對話變得更容易也更為開放,但也更容易走向無政府狀態。如果對於如何公開辯論、如何做出決定遲遲無法達成共識,結果得到的就不是民主,而是無政府狀態。再者,電腦一旦駭入了語言,如果參與對話中的一部分,是透過機器人程式產生,就可能讓大量人類幾乎不可能再進行有意義的公共對話。

而一旦公民無法分辨自己辯論的對象是人類還是機器時,會使得公民寧可犧牲自由來換取某種確定性,下一步或許就會見到獨裁政權的產生。無論是人民沒有了言論自由,或是人民失去了傾聽彼此的意願或能力,後AI時代不管是走向極權制度或無政府狀態,代表的,都是民主的死亡。

看起來,電腦、網際網路、智慧型手機、社群媒體與AI,都對民主提出了新的挑戰。但究其實,電腦的問題並不在於它們特別邪惡,而在於它們特別強大。電腦愈強大,我們就需要愈小心設定目標,務必讓電腦與人類的終極目標完全一致。科技創造的只是新的機會,但究竟要追求把握哪些機會,杜絕哪些弊害,仍然是人做的選擇及自我修正。

哈拉瑞在書中直指核心:「AI興起之所以會對人類構成生存威脅,並不是因為電腦真的懷抱什麼惡意,而是因為人類自己的缺陷問題。」

回顧過往,工業革命帶來了人類歷史上歷經過幾次大浩劫,如帝國征服、世界大戰、種族滅絕與極權政體,靠著自我修正機制,人類逐一修正了這些錯誤,看似走在對的方向。但在面對AI革命的時代,人類還要再面對怎樣的試誤過程,才能搞清楚該如何善用這些技術?

科學機構之所以能夠取得權威,是因為他們本身有強大的自我修正機制,能夠揭露並修正本身的錯誤。人類也是因為發現了自己的無知,才推動了科學革命。

相互監督是維持自我修正機制的重要因素,如果民主制度在AI的加入後,打算加強對個人的監控,那麼,民主制度也必須同意加強對政府與企業的監控,人民對於政府的透明度和問責制必須有所提升。而這樣的監控系統,不能24小時不間斷,必須永遠保留讓人改變與休息、喘息的空間,讓每個人都還能保有最起碼的隱私空間。

新資訊技術的發明,總是能促進重大的歷史變革,因為資訊最重要的作用就是去編織新的網路,而不是呈現既有的現實。而且,從歷史觀察,資訊網路往往比較重視秩序,而非真理真相。所以,若是缺乏強而有力的自我修正機制,AI將有能力宣揚一些扭曲的世界觀,助長肆無忌憚的權力濫用,以及煽動讓人驚駭的新獵巫行動。

未來的世界會如何變化?我們其實很難預測。但我們在伸開雙手迎接或擁抱新科技的同時,我們也想時時警惕,這樣的科技巨獸有沒有可能擺脫人類的控制,從而控制人類?

希臘神話中,費頓為了向玩伴們證明自己是太陽神的孩子,向阿波羅借了黃金馬車,但他的能力卻無法駕御這輛座車,結果,馬車飛得太高,將天庭都燒了,又飛得太低,大地都燃起火焰。眼見情勢不可收拾,天帝宙斯只好降下雷擊,把費頓和馬車擊碎,才化解危機。

AI,會不會就是阿波羅的馬車?未來的人類,是有能力駕御馬車的阿波羅?還是自不量力的費頓?我們都該時時警惕自己。

駕御AI,或被駕御?
Tagged on: