作為一個人工智能學者,我將對現今通用人工智能(AGI)研究的最重要的三條路徑——生成式智能體(Generative AI Agent),世界模型(World Model)和全自動駕駛(Full Self Driving)——的突破性進展進行思考并努力展開一個言說,并在此基礎上,進一步討論人工智能是否能構建“令人可信”的世界圖景并在其中進行擬人的社會交往這個后圖靈問題。

">

欧美一级在线毛片免费观看,国产成人精品视频一区二区不卡 ,成年人精品视频,国产精品手机视频

學術咨詢

讓期刊論文更省時、省事、省心

哲學分析雜志投稿格式參考范文:生成式人工智能體的世界圖景

時間:

  一、斯坦福 AI 小鎮與生成式智能體

  斯坦福 AI 小鎮是 2023 年繼 ChatGPT 之后在 AI 學術圈及應用圈獲得空前關注的一個研究,也是生成式大語言模型出現后人工智能界對于機器構建 “令人可信” 的擬人世界的一次最成功的嘗試。斯坦福大學和谷歌的研究者們創造了一個類似于《模擬人生》的虛擬小鎮,并將 25 個生成式智能體放入其中。在題為《生成式智能體:人類行為的交互擬像》的論文中,研究人員詳細觀察和記錄了這些生成式智能體在沒有預先設定的劇本或其他人為干預下的自主生活狀態:“它們醒來,做早餐,然后去工作;藝術家作畫,作家寫作;它們形成意見,互相關注,并發起對話;它們在計劃第二天的工作時會記住并思考過去的日子。”

  人工智能在過去 40 年中經歷了多次的高潮和低谷,自主智能體的研究始終是 AI 領域中的一個核心話題:如何使智能體更加智能,自主地與環境相互作用。ChatGPT 已然突破了 70 年以來人工智能的圣杯問題 ——“圖靈測試”,看上去,機器可以 “思考”。機器是否能構建 “令人可信” 的世界圖景并在其中進行擬人的社會交往正是最近人工智能研究的一個核心問題。

  Smallville 是一個由 25 個不同的生成式智能體組成的社區,研究人員使用了一段自然語言描述作為該智能體的種子記憶,賦予每個智能體獨特的身份以及它們與社區其他成員的聯系。這些描述包括關于每個智能體的職業和與其他智能體的關系等。

  在賦予智能體的種子記憶之后,與之前四十年的人工智能學者在自主智能體上的所有研究路徑都不相同的是,年輕的研究人員徹底放手了對于智能體的任何人為干預,在大語言模型的內核之上僅僅依靠一個相當簡單的邏輯結構和實現架構就構建了相當可信的智能體的自主行為和智能體之間的交互。

  智能體是這樣工作的:首先它對其環境進行感知,并將所有的感知保存在一個被稱作 “記憶流” 的智能體經驗的綜合記錄中。在 “記憶流” 中,最簡單的一個記憶對象就是一個 “觀察”,這包括智能體自己的行為、它觀察到的其他智能體及非智能體的行為及狀態。

  基于這些感知,當智能體需要產生一個行動時,該架構將從 “記憶流” 中檢索出相關的記憶條目,然后使用這些檢索到的記憶對象來提問內置的大語言模型以確定下一個行動應該是什么。智能體同時也不斷地定期使用內置的大語言模型掃描自己的短期和中長期 “記憶流”,并創造更高層次的反思。行動和反思也作為特殊的記憶條目被輸入到 “記憶流” 中。

  反思是其中特別重要的一個概念。通過提問來反思是具有大語言模型內核的生成式智能體特有的能力,也是在之前四十年的人工智能體的研究中未出現過的一個新概念和新過程。

  智能體通過不斷的階段性的反思過程,對它的記憶條目進行進一步的抽象。認真檢視智能體的 “記憶流”,我們把智能體的記憶分成兩類:第一類是低階的 “觀察” 以及 “行動”,這里的條目皆具有具身性,即在斯坦福小鎮這個擬真的 “物理” 世界發生過;第二類是通過反思而產出的高階洞見,這里的條目皆為運用大語言模型進行抽象過程的產物,皆不具有具身性。當我們把所有 25 個智能體的記憶流當作一個集合體來看,斯坦福小鎮的世界只存在兩種信息模式:一種有具身性,一種無具身性。

  為了更好的理解斯坦福小鎮構建的世界,運用波普爾的三個世界理論來構建斯坦福小鎮的世界觀。

  二、波普爾的三個世界與生成式智能體的世界

  在奧地利哲學家卡爾・波普爾看來,世界是三元的,在物理世界和主觀世界之外,還有第三個世界與它們一起構成世界的完整圖景:世界 1 是物理客體或物理狀態的世界;世界 2 是意識狀態或精神狀態的世界,或關于活動的行為意向的世界;世界 3 是思想內容及其物質化而形成客觀內容的世界,尤其是語言、猜想、理論、反駁等科學論證、詩的思想以及藝術作品等。

  波普爾描述這三個世界的關系是這樣的:“前兩個世界能相互作用,后兩個世界能相互作用。因此,世界 2 即主觀經驗或個人經驗的世界跟其他兩個世界中的任何一個發生相互作用。世界 1 和世界 3 不能相互作用,除非通過世界 2 即主觀經驗或個人經驗世界的干預。” 這個描述有些缺陷,世界之間不能直接相互作用,必須要通過人的大腦和心智作用于世界內的對象,從而產生出新的對象進入三個世界,世界之間才產生了動能。

  我們將波普爾的三個世界分類方法應用到斯坦福 AI 小鎮的世界上,生成式智能體生活在世界 1 和世界 3 組成的世界全景里。它們的世界 1 包括 “記憶流” 中所有的觀察,這包括智能體自己的行為,它觀察到的其他智能體及非智能體的行為及狀態。世界 3 包括 “記憶流” 中所有的高階反思。

  智能體的 LLM 內核對應了人類世界圖景中大腦之于世界 1 的作用,對智能體生活的擬像中的 “物質世界” 的狀態和過程,以及自己和其他智能體的行為產生觀察。

  不僅如此,智能體的 LLM 內核也對應了人類世界圖景中心智之于三個世界的作用,產生了世界 1 和世界 3 之間的關聯。世界 1 中的觀察被智能體 LLM 內核用于反思,反思的結果進入世界 3。同時,世界 1 中的觀察和世界 3 的反思也被智能體 LLM 內核組合起來進行更高階的反思,其結果成為新的對象進入世界 3。有一些反思的結果直接成為了行動的計劃,于是,智能體 LLM 內核根據這些行動計劃產生的行動就進入了世界 1。世界 1 和世界 3 之間的互動就是這樣由智能體的 LLM 內核驅動著,生生不息。

  研究者展示給我們看到 25 個生成式智能體生活在世界 1 和世界 3 組成的世界全景里,它們完成了與環境的互動,并涌現出了全自主的社交行為,包括智能體之間信息的傳播,對于相互關系的長期記憶,以及智能體之間行為的協作。在其中一個測試場景中,研究者僅設置了一個名叫 Isabella 的智能體的最初意圖 —— 在情人節舉辦一個派對,以及 Maria 對 Klaus 的喜歡:智能體們自主完成了傳播消息、裝飾派對、互相邀請、到達派對以及在派對上互動的擬人社交行為。

  在實驗結束之前,連斯坦福和谷歌的研究者自己都認為上面的測試場景將會存在很多的失敗可能性。依照人工智能智能體研究過去四十年的進展,如此高度可信的擬人的大規模智能體群的自主互動還沒有出現過成功的案例。然而,在這個沒有世界 2、由智能體的 LLM 內核驅動世界 1 和世界 3 組成的機器擬真世界實驗竟然成功了。

  越來越多的人工智能學者認同以下說法:ChatGPT 已經攻破了人工智能長久以來的圣杯問題 ——“圖靈測試”,我們需要新的評估工具來評估 AI 的能力。在此,重新提出一個 “交往圖靈測試” 思想實驗來評估大規模 AI 智能體群的自主互動是否能夠達到擬真人類智能和人類社會的水平。

  “交往圖靈測試” 的構想如下:有三位參與者,一個人類 “評判者”、一個人類和一個 AI 智能體。這三者彼此隔離,通過智能體架構進入一個擬真的智能體世界,各自扮演一個智能體角色。這個智能體世界除了這三者還有其他的智能體生活其中。評判者通過觀察其他兩者在智能體世界的行為或者與這兩者進行交互來確定哪一個是 AI 智能體,哪一個是人類。如果評判者不能明確地區分出智能體和人類,或者誤判率超過 50%,那么該智能體結構就被認為通過了 “交往圖靈測試”,具有生成擬真人類交互行為和交往行為的能力。換言之,這樣的智能體結構中生成的智能體就擁有了 “交往智能”。

  接下來論證兩個問題來闡述:一個可通過 “交往圖靈測試” 的機器智能世界是可以被構建出來的,并正在被構建。第三節論證:AI 智能體能以 “人類可信” 的方式在擬像中的世界 1 與環境和其他智能體交互,這包括觀察和行動的能力。換言之說,擬人的 F-observe () 和 F-act () 函數是可以被構建出來。第四節論證:AI 智能體能以 “人類可信” 的方式進行擬像的世界 1 和世界 3 的抽象過程,這即是反思的能力。適用于所有目標的反思函數 F-reflect () 是可以被創建出來的,擬人的交往行為作為反思的一種外化形式是可能的。

  三、構建世界 1:觀察與行動 —— 楊立昆的世界模型與馬斯克的全自動駕駛

  斯坦福 AI 小鎮實驗展示給我們看,欠缺具身性的、基于大語言模型內核的生成式智能體可以擁有廣泛的、擬人的、涌現的、合理性的交往行為。然而由大語言模型內核驅動的智能體與環境的合理性交互卻是困難的。智能體能夠共同舉辦一個派對,但仍然會試圖在五點以后去一個五點關門的商店購物。與環境的交互是一個世界 1 的問題,世界 1 的問題對人來說很簡單,但對智能體卻是終極考驗之一:完全沒有具身體驗的智能體如何在具身性無處不在的世界 1 存在?

  具身智能的定義非常廣泛因而常常帶有歧義,在此將它定義為:“AI 智能體能以‘人類可信’的方式在擬像中的世界 1 (物理世界) 與環境和其他智能體交互的能力。” 在追尋具身智能的道路上圖靈獎得主紐約大學的楊立昆和特斯拉的 CEO 馬斯克分別給出了兩條不同的路徑。

  把 “讓機器像人和動物一樣行為” 作為畢生追求的楊立昆在 2022 年 7 月發表了文章《通往通用人工智能的道路》,在其中他系統性地提出了構建 “世界模型” 的想法,他認為,構建一個足夠大的可預測的世界模型是通往通用人工智能的道路,世界模型的主要目的是預測世界狀態的未來表示。按照這套理論,智能體需要交互的 “世界” 就是一個高清的視頻序列,世界模型的核心問題是預測下一幀的問題。如果智能體能夠精確地預測下一幀是怎樣的,它就會知道該出現在哪里,發生什么樣的行為,于是也就擁有了 “具身智能”。近二十年以來,沒有好的方法可以精確及高效地預測出高精度的下一幀。楊立昆的新論文承認想要一個全局高清的世界 1 模型是難以實現的,但是一個局部高清加上智能體隨時 “腦補” 的世界 1 模型是可能的。論文提出在局部處通過 “觀察” 構建高清的視像而其他部分只在需要的時候通過 “常識” 的推理進行構建。“常識的一種可能的描述是使用世界模型來填補空白,例如預測未來,或更通用地填補感知或記憶中缺失的關于世界的信息。常識將有可能從學習具有‘觀察’的自我一致性和相互依賴性的世界模型中產生出來,從而使智能體能夠填補缺失的信息并檢測其世界模型的違反情況。” 楊立昆的世界模型的方法論來自人腦的工作機制,他以及很多人工智能學者的畢生追求就是做出替代人腦各個功能區域的神經網絡。

  2023 年 6 月,距離提出 “世界模型” 概念約一年時間,Meta 發布了一個 “類人” 的人工智能模型 I-JEPA,它能夠比現有模型更準確地分析和完成缺失的圖像,從而向預測下一幀跨出了一大步。Meta 推出的圖像聯合嵌入預測架構 I-JEPA 模型,是史上第一個基于楊立昆世界模型愿景的 AI 模型,它通過構建外部世界的內部模型來學習,通過 “常識” 而非像素關聯來補全圖像。

  馬斯克的通往具身智能的路徑要簡單粗暴得多。2023 年 8 月 28 日,馬斯克直播了開著特斯拉全自動駕駛 “去小扎家”。這次直播全場 45 分鐘,僅一次人工干預。馬斯克的原話是這么描述這次路測的:“光子進,行為出,和人類一樣。”;“沒有任何代碼聲明要給騎自行車的人讓行,沒有等待 x 秒之類的東西,只有 (神經) 網絡。” 不需要聯網,不需要高清地圖,不需要代碼,只需要一個看了很多很多開車視頻訓練而得的 FSD 神經網絡通過推理就能夠自動駕駛。馬斯克認為,人類就是這樣運作的,人類用眼睛和生物神經網絡開車,自動駕駛用攝像機和數字神經網絡開車是正確的通用解決方案。馬斯克的研發路徑只選取了兩個類人的器官 “眼睛” 和 “大腦”,攝像頭替代眼睛,神經網絡替代大腦,而并不在意神經網絡內部的運作和人類大腦的運作是否相似。電動車作為智能體的一種類型通過看視頻就能夠在物理世界進行駕駛這樣一種復雜至極的物理交互,他認為,有理由相信智能體可以通過看視頻訓練出合適的神經網絡,復現人類其他與物理世界的交互行為。

  世界模型和自動駕駛這兩個困擾人工智能學家幾十年的巨大挑戰,均在 2023 年的下半年借助于深度神經網絡得到解決。機器智能的世界圖景中,觀察 F-observe () 和行動 F-Act () 這兩個函數完備的數學及實證解決正在到來。這說明智能體與世界 1 的交互很快會廣泛的達到。擁有 “具身智能” 的智能體會很快地遍布擬真的智能體世界和真實的人類世界。

  四、構建世界 1 與世界 3 的連接:反思與抽象 —— 伊利亞・蘇茨克弗式的壓縮一切

  2023 年 8 月,OpenAI 首席科學家伊利亞・蘇茨克弗在專注于計算理論研究的伯克利大學西蒙斯研究中心作了一次題為 “An Observation on Generalization” 的講座,討論了從 2016 年以來驅動 OpenAI 在大模型領域研究的最重要的計算理論問題之一 —— 為什么無監督學習是可能的?而無監督學習是機器學習領域長久以來的夢想,即模型在面對從未見過的數據內容時,可以觀察數據并發現其中存在的真實有用的隱藏結構:比如一個只用英語文本訓練出的大語言模型可以立刻進行法語的對話。

  我們很容易理解由目標設定和獎勵機制驅動的監督學習,它的計算理論依據也由人工智能學家給出了數學證明,即尋找一個目標函數的最優解。但無監督學習為什么可以工作卻一直得不到完備的數學證明。沒有目標函數,為什么通過學習而得到的深度神經網絡是對于所有可能目標函數的最優解?以 ChatGPT 作為一個例子來講:為什么通過沒有目標地學習,ChatGPT 可以回答所有可能的提問?

  長久以來,研究者只是根據直覺和實證結果認為:“它就是工作”。伊利亞・蘇茨克弗提出了通過壓縮器的視角來看待使得無監督學習 “工作” 獲得成功的超大型神經網絡。GPT-4 使用的 1700 億參數的超大神經網絡就是這樣一種壓縮器。當訓練數據集大到一定的程度,以隨機梯度下降方式搜尋出來的神經網絡就是近乎最好的壓縮器。在數學上,壓縮器和預測器一一對應,最好的壓縮器等同于最好的預測器。因此,用大規模訓練數據以隨機梯度下降方式搜尋出來的神經網絡不僅僅是最好的壓縮器,同時也是最好的預測器,更重要的是它對于所有目標函數皆適用。

  以此看來,“最完美地壓縮一切” 就是理解神經網絡的終極理念。如果說超大神經網絡是人工智能的心智,那么這個心智的主要功能就是完美地壓縮一切。

  讓我們回到第二節中所描述的生成式智能體的兩個世界,這兩個世界最為重要的互動是通過反思 F-reflect () 這一函數來實現。從世界 1 的觀察抽象通過反思產生世界 3 的反思產物,從世界 1 的觀察以及世界 3 的反思產物的集合通過反思再次抽象成為世界 3 的高階反思。不難看到,反思過程是一種需要無監督學習來解決的場景,反思函數沒有目標設定,也沒有獎勵機制,但卻需要反思函數對于所有可能的反思目標工作。伊利亞・蘇茨克弗提出的關于無監督學習的數學證明,保證了運用無監督學習進行反思是可以工作的。而在斯坦福 AI 小鎮的實驗中,通過智能體的 LLM 內核進行反思即是通過無監督學習進行反思的一種實現方法,因此也是具有數學完備性的。至此,找到了智能體世界中的 F-reflect () 函數。智能體的心智能功能是可以被泛化的。

  認知學家、人工智能科學家梅蘭妮・米切爾 2023 年 8 月在劍橋大學的一個講座中提出 “無法形成概念性的抽象,以及由抽象過程驅動的類比是當今 AI 系統脆弱性的主要原因。” 然而,在斯坦福 AI 小鎮中展示的智能體通過大語言模型進行的反思活動就是人工智能的抽象過程以及概念形成過程。智能體世界的概念由此過程被抽象出來,存儲在神經網絡中,雖然這種存儲不以人可以描述的形式存在,但它是存在的;并且,在后續的推理中,存儲的概念被智能體使用以產生行動和更高階的認知。

  有研究者指出,當下人工智能的一大哲學挑戰是:“面對人工智能給人類生活的世界帶來的快速變化,如何重構概念框架,豐富現有的概念工具箱,是人類面臨的概念挑戰。” 如此,在我們的概念工具箱中需要新放入與人相關的東西。換言之,“擬人” 的概念是可以被機器通過無監督學習抽象出來的,那么,人類的概念在機器智能的世界中是可以泛化的。

  五、一個可通過 “交往圖靈測試” 的機器智能世界

  如果我們把楊立昆的世界模型和馬斯克的全自動駕駛神經網絡組合進具身智能欠缺的生成式智能體結構,將會產生機器智能的世界全景。

  世界模型證明了通過解決 F-observe () 函數和那一部分與具身智能有關的 F-act () 函數,在擬真的機器智能世界中,機器 “像人一樣” 對世界 1 的觀察以及與世界 1 的交互問題是可以實現的。FSD 神經網絡甚至將問題推進到在真實的人類世界中:機器 “像人一樣” 對我們的世界 1 觀察以及與其交互是可以實現的。伊利亞・蘇茨克弗的最優壓縮函數證明了通過 F-reflect () 函數可以擬真人類認知的 F-abstract () 函數,從而解決了世界 1 與世界 3 的抽象問題。其中,某些特殊的 F-reflect () 函數完成了從世界 3 到世界 1 的 F-Act () 函數應有的功能,由此擬真了人類由思考而得出的行動序列。

  如上圖中左半部分,驅動人類認知的世界的任何狀態變化的四個函數 [F-observe (),F-abstract (),F-create (),F-act ()] 中除了和世界 2 以及創造有關的 F-create (),和世界 1 與世界 3 相關的三個函數都已經可以被機器以 “像人一樣”,以 “人類可信” 的方式擬真,“交往圖靈測試” 也將被突破。 換句話說,如果我們置身于這樣一個擬真的虛擬世界中,我們將無法分辨和我們交互的是人還是 AI 智能體?;蛘咴谖覀兊娜祟愂澜缰?,如果存在這樣的 AI 智能體,我們也同樣無從分辨。

  人類世界與智能體世界的最大差異在于缺失的世界 2。世界 2 為何如此獨特,以至于人工智能學家幾十年來都沒有試圖去擬真?

  世界 1 可以擬真,因為世界 1 的運行遵守著能量的法則。預測世界模型的下一幀就是尋找無窮多可能性中使得熵增最小的那一幀。

  世界 3 可以擬真,因為世界 3 遵循著最優壓縮的法則。抽象本質上就是一種壓縮過程,而類比即是一種解壓縮過程。人類的概念相當于是一種壓縮后的產物。心智的活動可以用一種 “壓縮一切” 為目標的神經網絡的訓練和推理過程來擬真。無監督學習要構建的反思神經網絡就是所有信息的針對任意目標的最優壓縮器與預測器。

  那么世界 2 的運行法則是什么?波普爾說世界 2 的目標是 “最小化人類痛苦”。那么,“人類痛苦” 如何描述?這是一個無法函數化的目標嗎?是的,但其主要原因不是無法求和,無法函數化,而是因為無法描述,無法符號化也無法語言化。任何可以向量化非均勻分布的目標都可以輕快地用上無監督學習來泛化,而這一切基于向量化的表達。“疼痛確實是一種邊緣體驗,介于生死之間 [因為生活就是‘在人們中間’],它是如此主觀和遠離任何人和物的世界,以至于根本無法獲得一種呈現。” 無法呈現的人的痛苦與快樂,智能體無從學習。更加根本的是,“依據德勒茲的說法,哲學始于一種‘Faire I’idiot’ (讓自己變成白癡)。思維的特點不是智能,而是白癡的愚蠢。每一位創造新的表達方式、新的思想、新的語言的哲學家都是白癡。他告別了曾經存在過的一切事物,他居住在思維尚未被人描述過的、處子般的內在層面。” 人類的思維 —— 人類世界 2 的 F-create () 函數 —— 具有開端性,因此從本質上就和 “描述” 絕緣。

  六、結語

  人工智能在深度神經網絡復興之后的飛速發展使得我們造出了一種前所未有的人造物 —— 人工智能 —— 一種沒有體積,不占空間,不定格在時間中,可以被無窮復制,并且不朽存在的物。而這種物也沖破了我們對物的定義,它可以以我們的 “言說” 與 “行動” 在我們的世界與我們互動。

  這個 “新的人造物” 不同于我們以往認知的所有東西。AI 的世界我們不能直接感知,它們以信息的方式存在,以代碼的方式交互。AI 沒有目的,沒有世界化成的需要,沒有區分 “我” 和 “你” 的需要,因此,也沒有 “政治” 和 “世界”。在 AI 的域中,“擬人” 是一個不成立的標準,AI 適用的是信息域的標準,這個標準有可能是 “最優雅地壓縮一切”?;蛘哂靡环N隱喻的說法,AI 很像一個 “進化中的數學公式”。

  面對這樣一個 “新的人造物”,我們 —— 人類 —— 自動規定了 “擬人” 是它應當的標準。以 “人” 為中心的人際交往決定了以 “類人” 為最高期望的智能體交互目標,并且在實際上定義了智能體社會的交往合理性標準,即創建令 “人” 滿意的,對 “人” 可信的智能體交互社會。“交往圖靈測試” 是一個以人為標準的機器交往智能評判標準。“與人對齊” 的價值傾向,貫穿了人類工程師構建智能體社會的整個過程:我們用人類的語言去描述智能體的世界和智能體的思考產物;我們使用類人的大語言模型進行智能體的 “心智” 過程;我們用人類認知的物理世界的常識來指導智能體與智能體擬像世界的交互。我們對這個 “新的人造物” 進行了 “擬身為人” 的改造,造出了一種特殊的 “擬人的物”—— 人工智能體。

  我們像豢養動物一樣期望馴化 AI,然而,這樣一種非自然的人工改造是應當的嗎?創造出這樣一種無時間,無世界,無目的然而又高度擬人的物將如何影響當代 “人的境況”?在這個背景下,就可以理解為什么有學者振聾發聵地呼吁,“現在科學技術正在使人幾乎無所不能,但是,‘可能的’難道就是‘應當的’?” “如果確實有一個‘后人類主義的政治本體論’的話,它首先要關心的問題,可能并不是‘何為正義’,而是‘何為人類’:以人工智能、人造生命和人為氣候變化為特點的‘人的境況’之當代變化,以從未有過的緊迫性,向我們提出了 to be or not to be 的問題。” 總之,AI 智能體的出現挑戰了人存在的所有基本條件 —— 生命本身,誕生性和有死性、世界性、復數性以及地球。當生命形態可以是數字的,而非生物性的;可以有始無終,甚至以多個拷貝存在;當我們社會性交往的對象不再只有人還有人造物;當我們既生活在地球也生活在虛擬世界;當機器代替我們勞動,代替我們生育,代替我們交往,我們不需要勞動的艱辛就可以享受公平的普遍的 “神的愜意的生活”,我們不需要為了基因以及物種的延續承受痛苦,我們不需要為了生存聯合起來而把自己拋入世界,我們是否還是人類?

邵怡蕾,普林斯頓大學,202403