摘 要:目前的自然語言處理技術的發展,依然面臨如下問題:(1)不同的自然語言處理機制之間缺乏融合;(2)自然語言處理技術與人工智能研究的其他技術缺乏彼此融合;(3)基于大數據的自然語言處理技術的運作必須以“剝削”人類的智能為前提;(4)基于大數據的自然語言處理技術缺乏靈活處理隱喻、反諷、雙關等修辭現象的能力。這些問題所涉及的主要哲學問題有:(1)語言是外部世界的表征,還是言說者內部世界的表征?(2)語言中的規則,究竟是先驗的,還是經驗的?(3)語言表征與言說者的心理活動之間的關系為何?(4)與語言表征有關的認知構架,在多大程度上需要被“具身化”?
關鍵詞:人工智能 自然語言處理 認知語言學 語言哲學 大數據 圖式
徐英瑾; 陳萌 自然辯證法通訊 2021-12-17
一、導論:為何對人工智能來說, “自然語言處理”非常重要?
概而言之,所謂“人工智能”(“Artificial Intelligence”, 簡 稱 為“AI”), 就 是 用 計 算 機技術提供的技術手段,對人類智能進行模擬或部分模擬的一門學科。而人類的智能活動的一個非常重要的面相,用非常通俗的話說,就是“會說話”,也就是某種根據在特定語言共同體里通行的詞匯表與語法,進行靈活的思想交流的能力。這種意義上的能力無疑是高等智慧生物之 “智慧性”的重要指標,而且在我們已知的范圍內,人類的確是唯一具備這種能力的物種(當然,這并不是說諸如鸚鵡或者黑猩猩之類的生物無法掌握人類詞匯中的一部分,也并不是說它們沒有特定物種內部有效的信息交流模式——然而,的確尚且沒有足夠扎實的證據表明:它們能夠像人類那樣,通過不同的句法組合方式,創生與理解大量在內容上與其直接生存環境無關的語言表達式)。換言之,如果“會說話”乃是將人類智能與動物智能區分開來的最重要的指標之一的話,那么,完整意義上的AI顯然也應當具備這種特征。由此我們就能立即得出這樣的結論:對于AI研究來說,讓計算機能夠“說人話”,就將具有如下的重要理論意義:這樣的一項工作,將幫助我們從“人造認知架構”的角度理解語言能力在一個智能體系中所占據的地位,并由此夯實AI研究與廣義上的認知科學之間的聯系。
而換個角度看,讓 AI“說人話”的科學與工程學努力,也會帶來豐厚的實踐紅利。很顯然,如果經過特定編程的計算機也能夠理解人類的語言的話,這些機器就能直接參與人類的信息交流活動,并由此成為人類工作與生活中的好幫手。概而言之,能夠“懂人話”的人工智能機器所能勝任的工作將包括(但不局限于):
(甲)電子郵寄處理。譬如,在面對海量的電子郵件的時候,你會希望你的AI助手能夠通過對于郵件內容的分析,鑒別出哪些郵件是需要迅速處理的,哪些則可暫緩處理,由此提高你的辦公效率;
(乙)自動生成閱讀摘要。譬如,如果有一篇文章實在太長,讓你覺得無法迅速通讀,你便會希望你的AI助手能夠迅速形成一份內容提要,以便讓你迅速把握文章之要點;(丙)自動翻譯。譬如,你要讓計算機將一段電子郵件的內容自動翻譯成一種你不會的語言——如韓語或者日語——或者將一段你不懂的外語表述翻譯成漢語;(丁)文本自動生成。譬如,你需要為公司的某次年會準備一份發言稿,卻除了一些關鍵詞或詞組(如“業績”“維持增長的勢頭”“優化研發隊伍”)之外,什么句子都想不出。這時候,你便會希望你的AI助手能夠根據這些提示,給出一些不同方向上的文本生成方案,以供你參考。而當你選定某個方案之后,你的AI 助手甚至可以沿著這一路徑繼續優化相關的文本方案,最后幫你“多快好省”地完成發言稿。
在AI學界,負責完成上述任務的計算機編程研究,都會被打上“自然語言處理”(Natural Language Processing,簡稱為“NLP”)的標簽。顧名思義,“自然語言處理”(NLP)的任務,就是用計算機進行編程,以便讓相關程序能夠 “理解”人類的自然語言(不過,這里的“理解” 二字必須要打上引號,因為對于計算機是否可能最終“理解”人類語言,尚且存在著非常復雜的哲學爭議)。NLP 研究因為涉及的話題非常多,復雜性、綜合性特別強,所以一向被視為AI研究的皇冠(參看圖1對于NLP所涉及的知識模塊的概括)。[1] 不過,說到這里,愛較真的讀者或許會問: “會說話”能算是“具有智能”的充分必要條件嗎?
筆者傾向于認為答案是肯定的。換言之,如果某觀察對象能夠具有我們認可的語言水平(即達到了“會說話”的標準),你就能推出它有智能;反過來說,如果它是有智能的,你就能反過來斷定它有比較高的語言水平。舉例來說,假設某星系的外星人突然造訪地球,還流利地運用英語、漢語、日語等三種語言與我們進行了長達2小時的富有成效的交談——在這樣的情況下,我們地球是沒有任何理由認為它們是缺乏智能的。反過來說,如果外星人的確造訪了我們的星球,并在近地軌道懸停了它們的飛碟,但因為某種原因暫時沒有與我們建立語言聯絡的話,那么我們也的確必須假設它們是有語言的——因為倘若沒有語言在生產活動的分工協作中所起到的作用,如此復雜的飛碟恐怕是無法被制造出來的。
這里需要提醒讀者注意的是,筆者雖然認為“會說話(無論說哪種語言)”是“具有智能” 的充分必要條件,但這并不意味著“能說某種特定的人類語言(如漢語或英語)”乃是“具有智能”的充分必要條件。這就好比說,你與某個異族的人交流的時候,恐怕是不能僅僅因為彼此之間語言不通而假設對方是缺乏智能的。由此外推,我們甚至可以說:即使某些機器人的AI架構所支撐的交流語言的可理解性已經落在了廣大人類用戶的理解范圍之外,我們也不能僅僅以此為據,認定這些機器人缺乏智慧。或說得更學術化一點,是否能夠通過“圖靈測驗”,[2] 并非是判斷某對象是否具有智能的充分必要條件(而至多只能算是充分條件)。由此我們也就不難推出,雖然我們的NLP研究將不得不具有“為說特定自然語言的人類用戶服務”的最終指針,但是作為某種研究的中介階段,我們所設計的系統所進行的語言表征,可能并不直接就是諸如英語、漢語這樣的現成的人類語言。相反,NLP的研究者所要正面的,可是一個從表征的碎片演化為完整的人類符號系統的復雜過程。請參看圖2對于目前主流 NLP架構的信息處理階段的概括。對于本小節所給出的上述討論,有的讀者或許還會反駁說:筆者將語言處理能力視為智能之核心的觀點,顯得有點過于“邏各斯中心主義”了,并由此忽略了“具身化”(embodiment)在智能構成所起到的作用。換言之,在這些人看來,一個智能體之所以是智能的,首先并不在于其能說話,還是因為其能夠通過其身體,而在物理空間中自由移動,感知光線、氣味與溫度,躲避危險,等等。“會說話”無疑是第二位的。
而在筆者看來,上面這種批評,并沒有抓到我的立論的核心。換言之,說“會說話是具有智能的充分必要條件”,并不等于說要去否認:使得“會說話”這一條件本身被滿足,還需要大量的前提條件。這就好比說,承認“具有相關行業內三年以上的工作經歷,乃是獲得某工作職位的最重要條件”,并不意味著要去否認“具有相關行業內三年以上的工作經歷” 這一條件自身的滿足,還需要奠基在大量的前提性條件之上。相反,筆者完全愿意承認“具身性”自身的確構成了“會說話”的一個重要前提。譬如,《莊子·外篇·秋水》所說的“夏蟲不可以語于冰者,篤于時也”一語,實際就已涉及到了說話者的身體感受力之局限對于其語言理解力的制約。不過,對于莊子所言的上述闡發,同時也反過來支持了筆者的觀點:如果你發現某個對象在言語層面上無法“與之語冰”,這就很可能進一步說明:該對象在感知層面上就無法感受到冰天雪地的時節。這也就是說,語言交流的結果,依然能夠有效地反映一個“疑似智能體”的智能架構在非語言層面上所接觸的信息的廣度與深度。與之相比較,對于某對象的純粹的非言語身體行為的記錄,卻往往不能讓觀察者判斷出對象的某些抽象能力的高低。譬如,一位哲學教授肯定無法通過一位學生的純肢體動作來判斷他是否讀懂了康德的《純粹理性批判》,而只能通過筆試或口試等言語活動來完成這種此類判斷。從這個角度看,從言語行為——而不是從身體行為——的角度出發來評判被觀察對象的智能水平,是具有其特有的方法論優勢的。由此外推,我們也不難得出:就人造智能體而言,其在NLP領域的表現水平,也應當對其整體智能水平具有指標意義。說“NLP 研究乃是 AI 研究的王冠”,毫無夸張之處。
二、目前的人工智能發展水平,是否能夠滿足“說人話”的需求呢?
前文已經指出,NLP研究乃是AI研究的王冠,具有極大的理論綜合性與市場應用價值。目前,也已經有大量的研究資源已經被投入到這個領域,產生了大量的商業產值。譬如,智能語音音箱、手機上裝載的各種人機對話應用軟件、“百度翻譯”“谷歌翻譯”,都是此類研究的重要成果。但是需要指出的是,此類產品的表面上的繁榮,并不意味著目下的NLP產品已經達到了“會說人話”的水準。其評判理由是:
第一,諸如“谷歌翻譯”這樣的機器翻譯機制、“亞馬遜理解器”(Amazon Comprehend)這樣的文本信息挖掘機制、各種自動語音識別機制與各種各樣的機器人聊天盒,都是針對不同的NLP任務而被設計出來的特定 NLP機制,而不是某種面面俱到的針對所有NLP問題的一攬子解決方案。與之相較,對于一個完整的自然人而言,語義識別、語音識別、翻譯等語言功能都是被集成到一個大腦上的,其各自運作背后均有一套統一的心理學與生理學規律予以統馭。從便利角度考慮,我們當然也會期望這種整合能夠在NLP中實現。換言之,就像一個僅僅能做翻譯,而無法用母語對被翻譯文本進行深度解說的翻譯者不能算作是已經真正理解了被翻譯文字一樣,某種僅僅能做淺層翻譯,而不能進一步解釋被翻譯文字的NLP機制,也不算是真正在“說人話”。然而,基于下述兩點理由,在NLP中,這樣的技術整合非但沒有出現,而且似乎在可以預見的未來,也不太可能出現:(甲)具有不同分工的NLP機制往往分屬于不同的公司,因此,知識產權方面的壁壘會導致彼此的融合困難;(乙)具有不同分工的 NLP機制的研發往往本身又是基于不同的技術原理的,因此,原理方面的彼此不兼容也會導致彼此的融合困難。
第二,就人類而言,人類的語言能力本身是用來“做事情的”,比如幫助語言使用者在決策活動中進行復雜的信息梳理,或者是幫助語言使用者去說服某人采取某種行動。所以,語言能力天然就與邏輯推理能力、他心感知能力等其他心智能力相互交織。然而,就目前AI 工業的學術分工情況而言,NLP的研究與常識推理、非演繹推理等技術模塊之間的關系是相對分離的,遑論實現前文所提到的“具身性” 條件對于言語理解力的約束機制(圖3)。[3] 所以,從“通用人工智能研究”——而不是“專用人工智能研究”——的角度看,目前的NLP 研究乃是“無根”的。
第三,傳統的AI研究主要分“基于規則的 AI”與“基于統計的 AI”這兩大路數,而隨著時間的推移,目前以深度學習技術為代表的 “基于統計的AI”正在AI研究的各個領域內大行其道,并在風頭上全面壓過了“基于規則的 AI”(相關內容后文還要詳談)。但需要注意的是,深度學習技術在NLP領域內的運用,往往需要依賴網絡提供大量的語料與學習樣本,而這些語料與學習樣本的最終提供者畢竟還是人類。因此,從哲學角度看,此類技術只能算是對于人類智慧的“反光映照體”(這就好比月亮無非就是太陽的“反光映照體”一樣),而無法真正成為語言智慧的根基。譬如,這樣的技術很難在脫離互聯網的支持的前提下,自主地創生出對于輸入語料的恰當處理結果——而與之相較,具有正常語言智能的人類卻能在不借助網絡資源的情況下進行流暢的語言交流。因此,目前的主流NLP研究乃是缺乏足夠強大的“本地化信息處理能力”的。
第四,也正是因目前的主流 NLP 技術與大數據的信息采錄具有非常密切的關聯,一些在原則上就很難通過大數據技術獲得的語言材料,也就很難獲得目下主流NLP技術的充分處理。這些材料包括:
(甲)人類語言中的雙關、隱喻、反諷等修辭手段。具體而言,對于這些表達式的意義的確定往往需要結合當下的語境來進行,而無法通過基于大數據的歸納而被倉促決定。(乙)缺乏足夠網絡數據樣本的弱勢語言,如少數民族語言與地方方言。具體而言,對于這些語料的傳統NLP處理方式往往是基于“語料庫”的建設的(此類建設需要人類研究者投入大量的精力遴選語料),而不能簡單地訴諸于網絡資料,因為目前的網絡語言乃是由英語、漢語等主流語言所主導的。然而,也恰恰是因為目前基于深度學習的NLP技術對于網絡語料的依賴性非常高,所以,此類NLP技術恐怕是很難支持主流語言與弱勢語言之間的自動翻譯處理的。
與之相較,具有適當語言智力的人類,卻能比較快地通過語境信息提取而理解特定的雙關語、隱喻與反諷的含義,或者通過一定時期的努力,僅僅通過少數幾個教學者的幫助,學會一門方言。僅就這方面的表現而言,目前 NLP的研究所達到的水平,還遠遠沒有達到人類語言智力的平均水平。筆者認為,目前NLP技術所面臨的這些問題,不僅僅基于這樣的或那樣的工程學問題,而是有著深刻的哲學面相的。換言之,在基本的哲學層面上所遭遇的迷思,是目下NLP研究陷入的種種的工程學難題的總的病根。下面就是筆者對這一問題的幾點管見。
三、為何自然語言處理研究需要哲學視角的介入?
從總體上來看,哲學與NLP研究之間的關系,與哲學和一般意義上的理工科研究規劃之間的關系,并無本質不同。這也就是說,與很多自然科學研究規劃一樣,不同的NLP研究規劃都已經預設了這樣的或者那樣的哲學立場,只是相關的實證科學研究者往往沒有興趣對這樣的立場進行反思罷了。因此,哲學研究者的任務,就是將NLP研究未及言明的前提予以揭露,并對其進行反思性的評判。需要注意的是,與別的實證研究領域不同,NLP的研究尚且具有很大的前沿性、綜合性、探索性與范式層面上的不確定性,這就意味著以綜合性反思見長的哲學反思介入NLP討論的機會,要比其介入物理學、化學等成熟學科的機會大很多。大致而言,由于 NLP 的研究將不得不預設這樣的或者那樣的關于語言之本性的看法,作為哲學分支的語言哲學(philosophy of language)與 NLP研究之間的關系就會變得異常相關。其中,有如下四個問題是特別值得一提的:
問題一:語言與世界的關系為何?語言表征是對于說話者之外的外部世界的建模,還是對于說話者自己的內部觀念世界的建模?
這個問題顯然牽涉到語言哲學歷史上的一個大爭議。像柏拉圖、弗雷格、克里普克、普特南這樣的帶有客觀主義傾向的我哲學家會傾向于認為語言的作用是成為外部客觀事物的標記符號;而像洛克、胡塞爾、大森莊藏這樣的帶有主觀觀念論色彩的哲學家則會認為語言的主要任務乃是表征言說者內部的思想觀念,而不是指稱外部的對象。此類爭議在NLP內部也引發了相關技術路徑的分野。其中,客觀主義路向的語言觀會自然導致諸如“沙德魯”這樣的利用一階謂詞邏輯構造“積木世界”的NLP 方案;[4] 而主觀主義路向的語言觀則會引發丘其蘭德的“神經語義學”規劃,[5] 以及在“個性化營建”方面走得更遠的王培的“納思”研究規劃。[6] 說得更具隱喻色彩一點,這兩類研究路線之間的差異,乃是“上帝視角”與“凡人視角”之間的差異:基于“上帝視角”的客觀主義的NLP研究路向會預設:程序員已經獲得了其關于外部世界的至少某些方面的充分知識;而基于“凡人視角”的主觀主義的NLP研究路向則會預設:程序員所知道的,僅僅是被構建的NLP體系內部的表征符號之間的推理關系——至于這些推理關系是否嚴格對應于外部世界中的諸要素之間的因果關系,則是“未知之事”。
筆者是“凡人視角”的NLP研究路向的支持者,否則,我們就不得不預設NLP系統所儲存的某些關于外部世界的知識乃是“不可變的” (因為對于知識的充分性假設,將立即導出對于“知識修正”的必要性的否定),并由于這種預設而使得由此被設計出來的NLP系統失去應有的靈活性。但不幸的是,基于“凡人視角” 的 NLP 研究,目前并非 NLP 研究的主流。因此,哲學家就特別需要在概念層面上進行相關的“糾偏”工作。
問題二:語言中的規則,究竟是先驗的、不可變的,還是經驗的,可變的?
前面已經提到,NLP研究素有“基于規則” 與“基于統計”這兩個分野。但從概念分析角度看,對于這兩個分野自身的界定,似乎也就預設了“規則”的確立本身是與經驗性的統計工作無關的。但事情果真是如此嗎?難道一種語言的語法本身是不能隨著時間而發生流變嗎(我們不妨就想想近代以來漢語的語法所經歷的“歐化”進程)?關于如何更好的界定“先驗” 與“經驗”之間的分界,大致有以下三種解答方案:
(甲)做大“先驗”的范圍,即將所有的經驗層面上的自然語言語法都視為先驗的。不過,這種研究方式由于實在難以配合經驗語法在事實層面上的演化現實,而只能被視為某種抽象的可能性。(乙)與(甲)所提示的方向相反,做大“經驗”的范圍,即認為所有的先驗語法都可以通過統計資料甲乙消化。這是目下主流的基于深度學習的NLP研究的思路。(丙)與前二者都不同,此路數取其中間值,即在“規則”中又一分為二:有些規則是“經驗的”,如各種語言的表層語法;有些規則是先驗的,如某種貫穿于各種表層語法的“深層語法”。喬姆斯基的基于“普遍語法”概念的語言學路數,[7] 以及受到該路數影響的NLP研究,采用的就是該思路。
筆者本人所贊成的立場,乃是路數(丙)的某種更偏向經驗論方向的改良版。與喬姆斯基類似,筆者也認為存在著某種貫穿于各種經驗的語言形式的先驗思想架構,否則我們就很難解釋為何任何一個智力正常的人都可能學會任何一門外語;但與喬姆斯基不同的是,筆者并不認為這樣的一種先驗思想架構必須體現為一種現成的深層語法或普遍語法——它應當只能在某種更抽象的意義上被理解為簡單語言符號之間進行“接榫拼接”的各種先驗可能性,并因此只能承載最少的語法性質(“語法性質”一詞在此是指性、數、格等語法形態)。舉個例子來說,印歐語系的語言經常出現的名詞的性、數、格的變化、動詞詞尾的情態與時態變化,都不能在這些最基礎的“接榫”形式中出現,而只能被視為這些“接榫”形式的某種后天的復合形式。與之相較,喬姆斯基本人的想法則是這樣的:即使在漢語這樣的屈折度幾乎不可見的東方語言中,上述這些印歐語言的語法“曲折性” 特點也是以緘默方式存在的,否則,他心目中的“深層語法”就無法達成其普遍性。或說得概括性更強一點,筆者與喬姆斯基之間的共同點就在于:我們都認為對于所有語言的構成的終極說明卻都可以訴諸于一套統一的語法范疇;而筆者與他的不同之處就在于:在他看來,既然有待說明的諸語言現象有繁、簡之分,那么,用以說明它們的語法范疇就必須在“繁”的一頭留足“冗余量”,并由此成為了一種預備了所有語法開關的“普遍語法”;而筆者卻不贊同這一判斷。筆者的反駁如下:倘若上述假設是對的,那么我們就可以由此推出:一個漢語言說者倘若是改去言說某種更復雜的語言(如日語)的話,這種轉換應當是不會給他帶來更大的心理學負擔的,因為他的心智已經具備了言說這種更為復雜的語言的潛在語法開關。然而,這一推理顯然難以契合于下述這一樸素的心理學事實:言說在語法上更為復雜的語言一般會讓人感到更有心理負擔(除非那種更復雜的語言恰好是母語)。與之相較,筆者的假設——簡單的卯榫結構能夠按照不同經驗語言的需要,隨時被搭建為特定的語法結構——則可以輕易地解釋為何我們在言說語法更簡單的語言時會感到更輕松:因為這種言說所需要的卯榫結構的重構工作負荷本來就比較小。此外,筆者的這一研究思路還會帶來一個重大的紅利:由于筆者所說的這一卯榫結構與邏輯句法結構之間的高度同源性,經由此路數進行的NLP研究,將有機會與AI研究的其他面相(特別是推理與常識表征研究)相互融合。順便說一句,目前最切合筆者上述思路的NLP編程語言,其實就是前文提到的王培的“納思”邏輯,因為這種邏輯既具備對各種推理形式與常識經驗的表征能力,也可以通過對于自身結構的遞歸式構造,而去模擬特定經驗語言的語法特征。[8]
問題三:語言與心理架構的關系之間的關系究竟是什么?
前面已經提到,目前基于大數據的NLP研究,基本上乃是與各種各樣的認知建模研究相互疏離的。換言之,這些 NLP 研究者所關心的是,乃是如何在某些特定類型的語料輸入與語料輸出之間建立起合適的映射關系,而并非是這樣的語言現象是從怎樣的心理認知架構之中涌現的。與之相較,對于語言與心理活動之間的關系的研究,卻成為了戰后很多哲學家的學術聚焦點。譬如,在美國哲學家塞爾(John Searle)看來,諸如“提出一個希望”“表達一個欲望”“表述一個信念”這樣的言語行為本身乃是建立在“希望”“欲望”與“相信”這樣的“意向性活動”之上的,因此,作為心理學哲學分支的“意向性理論”應當為作為語言哲學分支的“言語行為理論”提供根基。[9] 無獨有偶,福多(Jerry Fodor)也在心理學哲學層面上提出過關于“心語”(mentalese)的假設,以便在一個前公共語言的層面上解釋心智機器是如何加工處理那些基本信息的。[10] 而在筆者看來,雖然塞爾與福多各自的心理學哲學都有自己特定的問題,但至少他們都正確地看到了“純粹地停留在言語行為的層面上來研究語言”這一做法的膚淺性,而走出了邁向正確的NLP解決路徑的第一步。而之所以說“純粹地停留在言語行為的層面上來研究語言”這一做法本身乃是膚淺的,則又是基于如下考慮:在言語行為層次上的現象實在是過于繁雜了,因此,對于不同語言現象的輸入-輸出關系的追索,必然會使得NLP的研究者陷入“以有涯追無涯”的尷尬境地,并由此帶來昂貴的數據采集成本與建模成本;而如果我們換一個思路,將復雜的言語行為視為“某種更具有一般性的心智架構在不同外部環境的刺激下而產生的不同的對應輸出”的話,我們就能大大降低我們的建模成本,并為相關系統在特定外部條件下的自動升級預留邏輯空間。
但這樣的一種研究思路,必然會將主流的 NLP研究的進路,進一步升級為一個宏大的通用人工智能的研究規劃,因為心智建模本身就意味著對于智能的一般架構的探索。這種帶有整體論思維模式色彩的研究路線圖恐怕會讓一部分研究者感到絕望,因為AI研究的典型操作模式便是針對某個特定應用場景提出的問題進行工程學開發,并將相關的研究成果拓展到別的應用場景上去——而筆者所提倡的研究思路卻是先去懸置一切技術應用場景,而在哲學與科學的層面上理清智能推理的一般特征,然后再考慮技術運用的問題。不過,在筆者看來,這里我所提出的研究路線圖雖貌似在繞彎路,卻實際上更有希望,因為該路線圖的執行者能夠在最大程度上避免受到特定應用場景的偶然性的影響,而能聚焦于心智架構的某些一般性特征。這就好比是對于牛頓力學體系的純粹理論研究與基于該力學體系的各種工程學應用之間的關系:前一類研究雖然具有某種凌駕于各種應用場景的純理論性,但一旦完成,就可以轉變為無窮無盡的應用可能,而起到“四兩撥千斤”的作用。
不過,這種面向“通用人工智能”的、帶有整體論色彩的研究規劃,顯然會因為自身的整體論色彩而從心理建模層面自然延展到身體建模層面。這也就會自然牽涉到前面我們所已經提到過的那個問題:語言表征與具身性之間的關系究竟是什么?
問題四:自然語言處理所需要的認知架構理論,究竟在多大程度上還需要被“具身化”?
在前文中,通過“夏蟲不可語冰”這一案例,筆者已經提出了這樣一種觀點:語言交流足以讓我們判斷一個交流對象在身體感知方面的廣度與深度,因此,語言交流乃是判斷某對象的各方面智能水平的最有效手段。然而,從工程建模的角度看,這并不意味著對于智能體的物理身體的塑造就可以被還原為純粹NLP性質的問題——這就好比說,在認識論的層面上說什么“美食家的評論乃是判斷某餐廳招牌菜之品質的最重要指標”,并不意味著在本體論意義上我們業要承認:如何做出美食料理的問題,就可以被還原為如何撰寫美食評論的問題。由此看來,完整意義的通用人工智能研究,將不得不包含對于智能體的感受-運動設備(即人類意義上的“身體”)的設計與制造。
不過,至少從表面上看來,對于AI的感受運動設備的設計與制造,本身并不會引發任何哲學爭議,因為就連最簡單的家用計算機都包含著鍵盤、鼠標等與外部信息環境溝通的媒介,遑論是需要在復雜物理環境中行動的AI系統。那么,我們將這個問題予以單列,其意義究竟又為何呢?
其意義就在于對于下述問題的澄清:上述這種“具身化”的工作,究竟對于NLP的研究來說是具有本質性的,還是僅僅具有某種邊緣性的意義?說得更清楚一點,在NLP的研究中,架構者是否預先需要思考相關的AI體將被匹配上怎樣的感受-運動設備,并為這樣的設備而在NLP的界面上預留一些重要的“槽口”?抑或:架構者根本不用關心相關的AI體將被匹配上怎樣的感受-運動設備,并完全可以將此類的考慮全部分配給別的領域內的專家?而這個“二選一”問題在近代哲學中的表現形式就是:人類的理性能力,是否能夠在懸置各種感官能力的運作的情況下,進行相對獨立的運作?對這一問題答“否”的乃是經驗派的觀點(這種觀點的工程學對應者,自然就會強調NLP界面設計與AI體的外部設備設計之間的連續性),而對該問題答“是”的,則是唯理派的觀點(這種觀點的工程學對應者,自然就會強調NLP界面設計與AI體的外部設備設計之間的可分離性)。
筆者對于該問題的解答,則既不是純粹唯理論的,也不是純粹經驗論的,而是帶有康德式的調和意味的:在筆者看來,在純粹的概念構造與底層的感官信息之間,還有一個重要的中間層被唯理派與經驗派所忽略了,這也就是時-空關系的直觀形式。一方面,這樣的直觀形式顯然具有一定的前概念性(譬如,對于一個房間的空間感知,不能被還原為對于相關空間的幾何學描述),而在另一方面,這樣的直觀形式又具有針對各種感官道的某種抽象性,并因此更接近于概念(譬如,一位盲人所感知到的教室的內部空間形式,依然會與一個正常人所看到的教室的內部空間形式有著高度的可重疊性)。在現代的認知語言學中,這樣的直觀形式的不同組合方式,一般稱為“圖型”(順便說一句,該術語乃是認知語言學對于康德的“圖型”概念進行再包裝后的產物),譬如,英語“ENTER” (進入)這個概念就具有如圖4像形式。[11]
由上圖看來,英語“ENTER”(進入)這個概念就可以被分析為數個意象圖式在時間序列中的組合,包括“物體”(object)“源點-路徑目標”(source-path-goal)與“容器-容納物” (container-content)。 很 顯 然,無論我們所討論的智能體具有怎樣的傳感器與運動設備(譬如,無論它是像蝙蝠那樣通過回聲定位系統來辨別方位,還是像鴿子那樣通過磁力線來辨別方位),它們都具有上述關于“ENTER”(進入)的認知圖式。換言之,即使他們彼此之間的感官道不同,它們也都能夠在NLP的層面上理解 “ENTER”(進入)這個概念。
由此 我們 不 難 推 出:對 于 NLP 的研究來說,我們需要做的是:(甲)列出一系列類似 “ENTER”(進入)的與時空感密切相關的概念;(乙)對這些概念進行“圖式化”;(丙)對這些圖式化的結果進行算法化處理。平心而論,筆者認為在這三個步驟中,最難處理的是(丙),因為目前世界上尚且沒有出現比較成熟的針對認知語言學的“圖式”概念的算法化方案[12(某] 些奠定的處理方案是基于神經元網絡模型對圖式加以刻畫的,但是筆者對相關路徑的可靠性有所懷疑。因為篇幅限制,本文將不對相關理由進行展開)。但筆者堅持認為,由“圖型論”所代表的康德式調和路線,乃是解決NLP 系統之“具身化”問題的必經之路,否則,我們便既無法擺脫極端的唯理論思路所帶來的困擾(此困擾即:抽象的符號如何在物理世界中獲得意義奠基?),也無法擺脫極端經驗論所帶來的困擾(此困擾即:具有不同感官道的智能體之間的交流,是如何可能性的?)。換言之,沿著這一中間道路繼續進行優化,乃是研究NLP體系之具身化的恰當限度的題中應有之義,因為從哲學角度上看,走別的路徑,我們或許就根本沒有成功的可能。
總 結
從本“導論”完成的討論來看,NLP問題的研究的確對整個AI的研究來說具有指標性的意義。但對于該問題的哲學面相的了解,卻一直沒有被 NLP 學界所充分地意識到。毋寧說,目前 NLP 學界研究的話題取向是完全被偶然的工程學需求或商業需求所牽導的,而缺乏哲學(甚至是科學)層面上的整體謀劃。更有甚者,在筆者所了解的范圍內,語言哲學界目前也缺乏全面介入NLP研究的充分理論沖動。這種“兩張皮互不相擾”的狀態顯然是不能讓人滿意的。此外,同樣令人感到擔憂的是,隨著國際科技競爭與交流環境的改變,國內很多與 AI相關的投資方向都被集中到了精密芯片的制造行業,與之同時,投向貌似更“虛”的AI架構研究的注意力卻明顯不足。殊不知工程師們對于高性能芯片算力的無休止的索求,在哲學層面上就已經預設了優秀的NLP機制與其它AI 機制的運作乃是基于大數據的(因為只有海量的數據才會倒逼人們去尋找巨大的算力與之匹配)。然而,在前文的分析中我們已經看到了,這一預設本身可能就是錯誤的,因為語言機制運作之本質,便是通過對于少量核心規則與核心詞匯的掌握而具備創生出海量的表達式的潛能——而并非是通過對于海量的現成的表達式的構建方式的模仿,建立出一個又一個“特設” (ad hoc)的語言模型,最終陷入“以有涯追無涯” 的困境。從這個角度看,目前全球的NLP研究也好,整個AI工業也罷,都尚且處在“盲人摸象” 的階段,而尚且遠遠沒有資格戴上“成熟科學” 的王冠。
論文指導 >
SCI期刊推薦 >
論文常見問題 >
SCI常見問題 >