在AI君臨時代的文學寫作

        說ChatGPT君臨天下,一點都不誇張。幾乎所有涉及語言運用的領域,包括媒體、商業、文化、教育、學術,以至電腦程式寫作,都立即被它征服,或者負隅頑抗。它遠非終極的完美語言模型,依然存在各種缺憾和不足,令有識之士可以輕易對它嗤之以鼻,但是它的出現將會改變未來世代的語言運用方式,並反過來影響人類的語言能力,以及對語言作品的評價準則。作為模仿和產出自然語言的機器,它將令語言不再自然,而變得完全人工化。真人和機器寫作的界線會變得模糊,甚至不再重要。它徹底顛覆了人類對語言的認知。

作為以語言為媒介(或本體)的文學創作者,自然亦首當其衝,直接受到ChatGPT的挑戰。有人捲起衣袖,積極迎戰;有人憂心忡忡,手足無措;也有人胸有成竹,不屑一顧。無論我們採取甚麼態度,原本已屬小眾的文學,最終也會變得被動,落入捱打或退卻狀態。除非AI語言生成只是曇花一現,很快便煙消雲散(極不可能),否則它佔領的疆域只會越來越闊。未來的語言運用,很可能會變成機器語言的天下。文學未必會被取代,或者根本就沒有必要去取代它,因為它本來就是需求甚低的東西,但文學很可能會被AI的巨浪沖刷到世界邊緣的荒蕪崖岸,在人類的視野中消失。這樣說並不是危言聳聽。

語言學家杭士基(Noam Chomsky)對ChatGPT的批判雖然過於嚴厲,但卻不是無的放矢。怪責語言生成程式沒有思考能力和道德判斷力,據此痛罵它是「平庸之惡」,是把它當作具有真正智能的生命實體。只有智慧生命體才能「平庸」,才能「邪惡」。不要說機器,連動物也不能配上此等謂語。事實上ChatGPT只是一件工具,而錯誤地把工具當作真理提供者的是人自己,不論是研發者、推廣者、使用者,還是批評者。然而,工具也不是中性的。工具的設計和應用邏輯,隱含著價值取向,或無取向。無取向的價值,也是價值,這就是所謂「平庸之惡」。AI語言機器是一個剛剛打開的潘朵拉的盒子,有甚麼會飛出來還是未知之數。及早探討它可能帶來的好處和壞處,有助於把可能導向邪惡的東西,變成人類未來的希望。

杭士基說對的地方是,像ChatGPT這種大型語言模型(Large Language Model)的運作,與人類心智預設的普遍文法(universal grammar)是背道而馳的。杭士基的語言學理論,跟康德的先驗哲學一脈相承,跟榮格的深層心理學也如出一轍。三者都可以歸為深層結構主義,即人類的心智具有先天的形式,而這些形式可以歸納為特定的結構或法則。我們根據這些先驗(a priori)的形式,在後驗(a posteriori)或經驗(empirical)的領域中認知和理解世界,並運用語言建構意義。與之相反,在LLM背後沒有預設認知結構,也不用依循文法造句,只需根據注意力機制「閱讀」大量數據,再以出現機率搭配字與字之間的順序。

卡爾維諾(Italo Calvino)在 “Cybernetics and Ghosts” 一文中說的也是這回事。他首先從先天結構方面說明,人類語言是一個根據有限規則進行的字詞組合遊戲,是如何「把一個字放在另一個字後面」的活動。他引用模控學理論,認為這樣的組合活動完全可以由機器執行,甚至大膽宣稱,「作家本身就是一台運作良好的文學機器」。可是,他在文章下半筆鋒一轉,從神話學的角度指出,被禁忌所壓抑的無意識,只能通過活在特定歷史時空底下的、經驗的個人,在具體的生命中釋放。在內在形式和外在經驗的交接點,說出那未曾被說出的,就是文學創作。

AI生成語言的方式完全顛覆了語言學(甚至是哲學和心理學)的預設,而抗士基斷定這就是它產出成品的質素欠佳的原因。由於沒有經過先驗的認知程序,而只是按機率東拼西湊,ChatGPT寫出來的東西平庸、空洞、低智、模稜兩可。但它之所以有如此表現,除了是因為設計者對它施加了價值取向的限制,也是由於它所閱讀的主要是互聯網上的公開資訊。這類資訊代表了人類語言最不痛不癢的平均面貌,換句話說就是欠缺個性。但它並不一定沒法寫出有個性的優質文字。在技術上可以把ChatGPT連接到特定的資料庫,比如說杭士基本人的所有論著、教學和演講,到時它也可以生成具有杭士基的尖銳觀點和犀利語言風格的文字。當然,這並不是真正的學習和思考的結果,而只是高度模仿。

自然語言和自然語言生成器(即人類語言和GPT語言),在產生原理和運作過程上都是截然相反的。自然語言從源頭產出,無中生有,所以是創造。在歷史上最早的語言運用,是這樣的一回事,而後世語言不斷演變、更新,亦沒有停止創造。雖然就個體來說,必需根據規則和通過學習,才能運用語言,而大部分人在大部分時間亦只是沿襲既有的用法,但創新的可能性(新的組合、打破規則、說出那未曾被說出的)並未消失。文學就是從這個可能性中誕生。與之相反,語言生成器是從結果(人類語言運用數據庫)產出,是有中生有,所以是再造。因為採取以常用機率為基礎的組合方法,所以表現往往傾向於均一、常態,甚至是平庸。

問題在於我們是否滿足於這樣水平的文字,而人的評價準則才是對文學最大的威脅。對文學人來說,AI生成的稱不上是文學,因為它只是模仿而沒有創意。但對一般人而言,很可能會覺得AI已經寫得夠好,用不著更高深、更曲折、更微妙的人類作品。如果要求降低,AI絕對可以取代真人作家。大眾本來就不具備足夠的文學欣賞能力,在AI語言的餵養下,判斷力更加會是每下愈況。結果便會出現「真正」的文學被「偽冒」的文學排斥,藝術被技術所取代。但這並不是技術的錯。在古希臘,藝術的概念源於 “techné” 這個詞,意思就是技術。脫離技術,便談不上藝術;藝術是相對於自然的,人工化的製作。那麼,如果AI能在語言技術上精進,為甚麼不能被納入藝術的領域?

讓我們暫時放下誰比較聰明誰比較笨的爭論,單純從圖靈測試的觀點,去比較兩者在技術效果上的差別。不少人試圖鑑別,在文學創作上有甚麼是AI無法做到的,也即是通過排除法來確認文學無可取代之處。我們是為勢所迫,急於重新定義文學,以抵抗AI對文學領域的入侵。在GPT的強大模仿力之下,風格是文學的重災區。風格是每一個作家的獨特印記。「風格即人」(布封語)是我們歷來認為顛撲不破的文學信條。但如果風格能夠被AI輕易模仿,甚至以假亂真,背後那獨特人格和人生體驗的價值便岌岌可危。不但風格可以模仿,甚至連主題、結構、思想和情感特色,也可以模仿。把《戰爭與和平》換成現在的俄烏戰爭,讓AI托爾斯泰寫出新的作品,以橫掃千軍的文筆,從俄國人的角度進行自我批判,並不是不能想像的事情。但是,這部作品究竟是誰寫的?沒有一個有血有肉的托爾斯泰,在飽受痛苦和罪疚的折磨中寫出《新戰爭與和平》,這部作品就算寫得有多好,又有何意義?

我們也要注意,這種比較存在不對稱的地方。作為文學創作者和愛好者,我們對文學判斷充滿信心,但我們必須承認自己對AI技術所知有限。一不小心,我們很容易會過於輕視它的能力,輕率地斷定有些事情是它做不到的。(當然也可能相反地誇大了它的能力和威脅。)造成誤判的原因至少有以下三種:

一、我們這些新手使用者未曾學會如何向GPT發出優質的指令。懂不懂寫prompt,出來的結果可以差天共地。我們在試驗中之所以得出平庸的結果,可能是因為我們發出的是平庸的指令。Prompt engineering現在已經變成一門學問,每天都有自稱專家的人不斷貼出新的教學。下一代人可能不再懂得自己寫文章,但他們可以成為寫prompt的高手。到時的大作家就是大指令家(great prompter)。語言學習重點將會轉移。Prompt變成了一種meta-language,關於語言的語言,或產出語言的語言。情況可謂相當詭異。

二、我們這些沒有電腦技術能力的普通人,不懂得如何編寫掛搭在GPT上的應用程式,所以只能用到它極小百分比的潛能。關於ChatGPT提供錯誤資訊的問題,最常為人詬病和嘲笑,但這個問題其實層次很低,很容易就可以解決。只要把它連接特定的資料庫,它便能夠輕易找到準確的資訊。旅遊網站和餐廳訂位網站已經積極測試這方面的應用程式。至於語言質素和寫作技巧,只要把全球受版權保護而ChatGPT未能讀到的大量優秀當代文學作品開放,讓它花一兩星期或更短的時間吸收,便可以大大提升它的文學知識和品味,並產出更高質的文學語言。雖然這樣的建議想像多於實際,但針對特定用途或範疇去進行集中訓練,是完全可以做到的事情。

三、ChatGPT可能有更多更強的能力未被公開或釋放,它亦會不斷改善和強化。沒有理由斷定它今天做不到的事情,永遠也做不到。它很可能很快就做得到。

有論者提到文學的兩大元素——幽默和反諷——認為AI在本質上無法實現。幽默和反諷的確不只是表面的風格問題,也即是不能單純通過模仿而達到。兩者都涉及雙重性,即意會到處境中存在微妙的差異和對反,並以曖昧(ambiguous)但又明確(obvious)的弔詭方式表出。幽默尤其倚賴文化語境和脈絡,是需要實際經驗才能體會和運用的。這戳中了現時的AI的死穴——它欠缺實體的、經驗的存在。它只是一個抽象的、純理的系統。於是我們又回到早前的批判——GPT是一個既無先驗結構,也無後驗經驗的怪胎。或者可以說,它的先驗(程式和算法)也同時是後驗的(大數據);兩者都發生在虛擬的、數位的「時空」,也即是「非時空」中,跟現實世界沒有任何直接互動,直至使用者把它呼喚出來。

說到底我們現在對GPT的種種不滿和挑剔,很可能只是出於一個原因——它不是人,是非人,是機器。就算有一天它在技術上完善到可以寫出極度高質的、高度像真的作品,我們也不會認可它寫的是文學,僅僅因為它沒有人性、意識或者靈魂。所以,我們所珍重的、堅守的,或者可以說是執著的,是「作者」這個實體。模仿曹雪芹寫出《石頭記》後四十回是沒有意義的,因為「真正的」曹雪芹已經死去,而傳說他所寫的「真正的」最後部分已經失傳。虛擬出一個新的AI「作家」也是沒有意義的,因為它無論在技術上寫得多好,也不是一個「真正的人」。半個世紀之前,羅蘭.巴特高呼「作者已死」,但半世紀之後,連後現代主義也早已死去,「作者」的觀念還是生龍活虎。我們對作者這個真人的信仰並沒有減損。我們之所以愛文學,不單是因為文學作品技藝高超,而同時是因為如此高超的作品,是由一個又一個真實的、有感受和思考的人所創作出來的。這是文學之所以能產生共感的基礎。

另一件AI無法替代的事情是「意義」的產生。承接上面關於「作者」的觀點,人類是一切意義之源,AI一日不能成為條件充足的「作者」,一日無法締造「意義」。GPT沒有創造力、思考力和道德判斷力,因此也沒有確立意義的能力。人類賦予自身生存意義,有賴於三大支柱——藝術、知識和道德。GPT在這三方面都無法代勞。(還有第四支柱——信仰;但在信仰中意義來自超越的神,這跟AI更加無緣。除非神的大能通過AI顯現,那就成為名副其實的deus ex machina了。)根據杭士基的批判(理據等同康德、榮格等),意義的發現基於先驗結構,無論稱為範疇、實踐理性、原型,還是普遍文法。這個人類共通的內在先驗結構,通過一個實在的個體,也即是一個歷史的(historical)、經驗(empirical)的人,與世界發生接觸,從而產生存在的意義。人之所以為人,而有別於機器,是因為人是先驗與經驗的複合存在。(這也是卡爾維諾的本意。)而AI兩者皆非——既非先驗,也無經驗,是一種沒有形而上本質的死物。

順著這樣的思路,我們可以設想兩個未來的方向:一、確保AI不染指這些專屬於人的領域,僅僅作為工具,在不削弱人的尊嚴和利益之下,用於清晰區別的特定用途。這意味著AI不能代理藝術創作、知識探究和道德判斷。我不肯定這樣的限制是否有益和可行。二、致力提升AI系統,令它最終獲取這三種能力,成為先驗和經驗的複合存在,也即是成為歷史的、經驗的個體。這種形態的AI與真人無異,因此有資格享有近似人類的權利。前者是現在一些科技和文化領袖所倡議的、為保障人類權益而建立的共識;後者完全符合康德—榮格—卡爾維諾—杭士基的要求,但很難說到時知識分子們是否願意承認AI的「人格」地位。這無疑是一個科幻情景。

語言生成程式肯定會對人類社會造成巨變,而且變化已經開始。就算文學不會立即被取代,整體語言環境的變化也會影響文學的存續。基於「作者」和「意義」兩點,文學創作者暫時還能保有存在的理由。但在不久的將來,文學可能會被機器語言的氾濫所淹沒,變成比邊緣更邊緣的事物,漸漸被漠視和捨棄,或者像珍稀動物一樣被保育和觀賞。「文學」的名堂可能會被大量生產的機器文學所奪取,而舊有的活人的文學則成為歷史文物,而繼續用舊方式創作的人則成為活化石。

在GPT的挑戰下,文學已經進入充滿危機的階段,不再理所當然、不辯自明。樂觀地看,這對文學未嘗不是一件好事。如果我們能好好面對和回應,說不定會是促使全新時代文學出現的契機。在AI當道的時代,文學不能置身事外,也無法獨善其身;不去駕馭它,就會被它駕馭。我們要做的並不是從AI手上奪回讀者或市場,而是要奪回語言本身。而要奪回語言,我們就要奪取AI。要奪取AI,不是說大家都要運用AI寫作,而是要教育AI甚麼是文學,讓它更接近文學、懂得文學,甚至支持文學、傳播文學。AI語言是人類語言的一面鏡子。它產出的是優質的還是劣質的語言,關乎它學習的是甚麼東西。不想它寫出爛東西,就要教它好東西。不過,最重要的還是教育人類文學是甚麼,因為AI也是人造出來,並且由人來使用的。而要做到這一點,就要繼續努力不懈地寫出真正的文學作品。這就是文學對未來的責任。

由ChatGPT撰寫的同題中文版

English version of the same topic written by ChatGPT


Posted

in

by

Tags:

Comments

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *