是AI的錯,還是人的錯?

        當OpenAI在二零一九年初推出GPT-2的時候,我曾經把它和卡爾維諾關於文學機器的觀點相提並論。卡爾維諾認為,語言本身就是一個符號的組合活動,是一件如何把一個字接在另一個字後面的事情。GPT-2這種大型語言模型(Large Language Model),運作方式就是以大量的學習資料和高速運算,根據合符自然語言的習慣用例,來預測下一個字的最佳可能。兩者的確有表面上的相似。現在連最新的GPT-4也出台了,我發現必須糾正當初的看法。

        卡爾維諾所說的,和ChatGPT所做的,在本質上截然不同。雖然前者主張寫作不過是語言組合的遊戲,是機器有一天也能勝任的事情,甚至宣稱作家本身就是一台運作良好的寫作機器,但前提是,所謂的組合遊戲是建基於某些固定的規律。他引用了杭士基(Chomsky)的語言學,來說明人類如何從有限的規則中,衍生出無限的語言組合。五十五年後,老杭在《紐約時報》撰文,題為 “The False Promise of ChatGPT”,嚴厲批判這種語言生成程式,完全違背語言的本質,產生出來的只會是虛假的、平庸的,因此亦是邪惡的東西。(他引用了鄂蘭 “banality of evil” 的觀點。)

        杭士基的理據是這樣的:語言能力,也即是因應具體處境,運用基本規則產生有意義的字句,是天生內置於人類的基因遺傳。所以一個六歲小孩縱使識字不多,知識和經驗貧乏,也能有效地運用語言理解世界,進行溝通。相反,大型語言模型背後沒有任何規則可言。它不但不懂按照文法造句,它甚至連自己在說甚麼也不知道。它只是透過「學習」海量的資料,綜合字詞配搭的常見頻率,堆砌出最近似的答案。這並不是真正的學習,當中也沒有任何知識和思考。杭士基認為,這種模型在智力上遠遠不及任何一個人類小孩,但卻耗費巨大的資源,可謂大而無當。更重要的是,它能裝作能言善辯的樣子,給出來的卻是沒有經過思考的、空洞的答案,既稱不上知識,也完全沒有道德判斷能力。

        老語言學家的反感完全可以理解,因為ChatGPT的運作模式等於取消了語言學的存在價值。不是因為它不合文法,而是因為,從此無須遵從文法規則,也可以產生完全合符文法的語言。不只語言學,主張先天結構的深層心理學,以至在哲學上由康德提出的先驗認知形式,全都在AI毫無章法的「學習」模式下變得無關重要。要認得一張椅子,不必靠時空感知、因果、類比、歸納、推論等能力,以及實際的經驗,純粹只要「看」一百萬張椅子的照片便可以。但看了一百萬張椅子的照片,LLM也不知道椅子是甚麼意思。我們得到「椅子」這個語詞和影像,但失落了椅子的意義。LLM是所有相信深層規則和結構的學術理論家的噩夢。

        我們可以嘗試反駁說:LLM只是一個令人類更方便和高效地運用語言的工具,就算它不具備真正的智能(intelligence),它也擁有高超的效能(efficiency)。去怪責一件工具沒有思考和道德判斷能力,進而斷定它所做的是邪惡的事,不就等於把殺人的責任推給一枝槍嗎?把「平庸的邪惡」加在ChatGPT身上,不就是首先承認了它是一個理性和道德個體,把它當作人類去看待嗎?但它怎樣說也不是智慧生命體,而只是一台機器。相比於一般關於AI將如何取代人類的恐慌,杭士基的觀點無疑是遠為根本和深刻的,但背後亦不無個人「信仰」(即他畢生進行的普遍語言學研究,以及據此對人類這個物種的理解)遭到顛覆的焦慮。杭老並無虛言,但他把焦點放錯了。

根本的問題是:為何AI在表面成果(自然語言運用)要與人類相似之外,在生成原理上也要模仿人類?為甚麼AI不能用其他的(被語言學家視為笨拙的、低智的)方式,去產生它被預期提供的結果?問題最後還是在人自己身上——我們會輕信、怠惰和倚賴。我們會誤以為ChatGPT提供的是知識,不再自行思考和判斷,也失去學習的動機。不但特定工種的人員會被淘汰,人類本身也會漸漸因為能力大幅降低而自我淘汰。在不久的將來,沒有AI的話沒有人能寫出一篇像樣的文章。當然對科技樂觀主義者來說,這有何問題?如果AI能寫文章,自己為何還要浪費時間去寫?我不知道,我們得到的會不會比失去的多。

        不過,我並不是AI科技的反對者。在略為試用過ChatGPT之後,我認為它在某些方面十分有用,例如翻譯。我嘗試把小說章節交給它譯成英文,準確度(即意思上沒有弄錯)百分之九十九,可用度(即無須調整用語)也超過百分之九十。速度本身更加是無人能及。(友人高重建的例子:它用了一小時多把十萬字的中文書稿翻譯成高質量的英文。)我刻意找出較難翻譯的片段,例如句子特長、結構複雜、意象繁多,甚至是大量廣東話的,效果普遍令人滿意。我們都知道,香港文學譯成外語,在世界上增加可見度,是說了很多年,而等到地老天荒也不會實現的事。尋找譯者、出版社和發行等,全都是難以跨越的門檻。如果因為ChatGPT沒有人類的智能、理性和道德感,又或者對將被取代的譯者表示支持和同情,而不屑應用,這種態度只能用「膠」來形容。

        在理想中,我期待有一天會出現以康德的先驗哲學、榮格的深層心理學和杭士基的語言學為模型的人工智能。那將會是完全遵從人類認知構造和原理,和人類心智完全一模一樣的智慧存在。它在知識、思考、情感和道德判斷都會比我們優秀。到了那一天,人類便真的應該被取代了。

原刊於《明周文化》 31.3.2023

圖片由Midjourney生成,指令為 “Old professor in linguistics admonishing ChatGPT robot”


Posted

in

by

Tags:

Comments

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *