是否,站在人類(lèi)終結(jié)時(shí)代的地平線(xiàn)上,唯有人工智能?

當(dāng)AI巔峰時(shí),人類(lèi)智慧將聚焦價(jià)值本源與倫理錨點(diǎn),以非結(jié)構(gòu)化認(rèn)知、元倫理構(gòu)建及人機(jī)共生拓展思維邊疆,在技術(shù)理性中重塑人文靈性,守護(hù)不可編碼的意識(shí)特質(zhì)與存在意義。
——被問(wèn)到AI時(shí)代人類(lèi)的定位后,DeepSeek如此回答
思考需要他者、需要碰撞
上觀(guān)新聞:在人工智能急速發(fā)展的背景下,是什么最終驅(qū)動(dòng)您寫(xiě)下《再見(jiàn)智人:技術(shù)—政治與后人類(lèi)境況》(以下簡(jiǎn)稱(chēng)《再見(jiàn)智人》)這本書(shū),并且以“再見(jiàn)智人”為題?
吳冠軍(華東師范大學(xué)教授、政治與國(guó)際關(guān)系學(xué)院院長(zhǎng)、奇點(diǎn)研究院院長(zhǎng)):“智人”這個(gè)詞,本來(lái)就是我們從物種意義上的“自稱(chēng)”。10年前,尤瓦爾·赫拉利寫(xiě)的《人類(lèi)簡(jiǎn)史:從動(dòng)物到上帝》有效地將這個(gè)詞帶入跨學(xué)科的研究視域。
今天,因?yàn)槿斯ぶ悄艿某霈F(xiàn),我們可以對(duì)“智人”做很多反思性的思考?!爸侨耍℉omo Sapiens)”這個(gè)名字,實(shí)際上是人類(lèi)自己給自己起的。假設(shè)未來(lái)有一個(gè)人類(lèi)文明之后的文明,他們會(huì)怎樣稱(chēng)呼我們?這是一個(gè)新的視角。
在人工智能不斷發(fā)展之際,尤其是從2022年11月(OpenAI宣布正式推出ChatGPT)開(kāi)始,我們震驚地發(fā)現(xiàn)生成式人工智能在很多領(lǐng)域不比我們差,甚至還超過(guò)我們。圖靈獎(jiǎng)得主約書(shū)亞·本吉奧甚至認(rèn)為以ChatGPT為代表的大模型已經(jīng)通過(guò)了圖靈測(cè)試。有這樣的人工智能站在旁邊,以“智”自我命名的人類(lèi),到了需要證明自己的時(shí)候。
我認(rèn)為這是一個(gè)非常好的時(shí)刻,促使我們重新思考智人的“智”在哪里。以前在現(xiàn)代性框架內(nèi),不存在這樣一個(gè)參照物或參照系。我把研究大模型的新著題名為《再見(jiàn)智人》,眾所周知“再見(jiàn)”在漢語(yǔ)中是個(gè)雙關(guān)語(yǔ)。它可以是跟“智人”道別,也可以是再次見(jiàn)到“智人”——在新的地平線(xiàn)上,人類(lèi)需要重新界定自己的“智”。我們需要用一種十分嚴(yán)肅的方式來(lái)問(wèn)這個(gè)問(wèn)題:我們的“智”體現(xiàn)在哪里?重新自我認(rèn)知,當(dāng)下正是緊要關(guān)頭。
上觀(guān)新聞:就在幾個(gè)月前,多位參與推動(dòng)人工智能發(fā)展的頂級(jí)科學(xué)家共同發(fā)表了一封公開(kāi)信,呼吁建立更好的“安保措施”,擔(dān)憂(yōu)人工智能濫用給整個(gè)人類(lèi)帶來(lái)嚴(yán)重后果。
吳冠軍:面對(duì)人工智能開(kāi)始在智能方面追上人類(lèi)甚至有所超越,有的人很興奮,因?yàn)橛X(jué)得這個(gè)時(shí)代充滿(mǎn)可能性;也有很多人倍感焦灼,甚至認(rèn)為應(yīng)該限制其發(fā)展。人類(lèi)的智能面對(duì)人工智能是如此捉襟見(jiàn)肘,這實(shí)在太讓人痛苦了。
然而即便我們同意后一種主張,當(dāng)下的主權(quán)國(guó)家與全球資本主義的既有格局,使得人工智能的發(fā)展像軍備競(jìng)賽那樣無(wú)法減速。
去年初,《自然》雜志上有一篇神經(jīng)科學(xué)研究論文,題目叫作《It takes two to think(要二才能思)》。換句話(huà)說(shuō),從來(lái)沒(méi)有“一個(gè)人的”思考,思考結(jié)構(gòu)性地需要“二”——兩個(gè)智能體。我是《再見(jiàn)智人》的作者,然而我在寫(xiě)作前和寫(xiě)作過(guò)程中卻是在同大量當(dāng)代乃至過(guò)去時(shí)代的思考者進(jìn)行“對(duì)話(huà)”,這本書(shū)絕不是一個(gè)人思考的產(chǎn)物。
思考結(jié)構(gòu)性地需要他者、需要碰撞。今天,我們有了人工智能,這是一個(gè)非常棒的時(shí)刻,因?yàn)榕c我們對(duì)話(huà)、共思的同行者又增加了。我現(xiàn)在就經(jīng)常和ChatGPT一起思考。
人工智能是個(gè)“黑箱”
上觀(guān)新聞:此前,另一封公開(kāi)信似乎掀起了更大爭(zhēng)論。2023年3月,包括馬斯克等在內(nèi)的千名科技人士發(fā)表公開(kāi)信:呼吁暫停訓(xùn)練比GPT-4更強(qiáng)大的AI系統(tǒng),時(shí)間至少是6個(gè)月。這種又期待又害怕的矛盾,似乎是各個(gè)階段人們面對(duì)迅速生長(zhǎng)的人工智能的一種典型情緒。
吳冠軍:當(dāng)年這封公開(kāi)信是由麻省理工學(xué)院的物理學(xué)家、計(jì)算機(jī)科學(xué)家泰格馬克起草的?,F(xiàn)在我們?cè)诮鼉赡旰蠡仡^看,這封信的呼吁是失敗的,就連在上面簽名的馬斯克本人都根本沒(méi)有停止開(kāi)發(fā)人工智能。
關(guān)于這封信,我與泰格馬克有過(guò)一次討論。泰格馬克呼吁“keeping AI under control(將人工智能置于可控范圍內(nèi))”。理由源自他提出一種計(jì)算機(jī)研究的路徑——“mechanisticinterpretability(機(jī)械式的可闡釋性)”。因?yàn)槟壳暗拇竽P图幢銓?duì)于開(kāi)發(fā)者而言亦是一個(gè)“黑箱”,換言之,我們只知道輸入了什么,以及最后的輸出,一個(gè)特別棒的文本或視頻,但研究者對(duì)中間的“生成”過(guò)程并不全然掌握。
這就帶來(lái)了一個(gè)巨大的風(fēng)險(xiǎn),因?yàn)檫^(guò)程是不透明的,人類(lèi)就無(wú)法參與對(duì)生成結(jié)果的控制,所以泰格馬克由此提出“必須控制”的倡議。
當(dāng)時(shí)我跟他的爭(zhēng)論點(diǎn)是:“control(控制)”預(yù)設(shè)了“power(不管是能源意義上的開(kāi)關(guān)機(jī)鍵,還是政治意義上的權(quán)力)”,控制意味著必須握有控制的權(quán)力。那么,誰(shuí)握有這個(gè)權(quán)力?或者說(shuō),當(dāng)泰格馬克說(shuō)“Let us not to lose control”時(shí),誰(shuí)是這個(gè)“us(我們)”?泰格馬克回答“Of course,this ‘us’ is humanity(當(dāng)然這個(gè)控制者是人類(lèi))”。那么問(wèn)題就是,從人類(lèi)文明史來(lái)看,還沒(méi)有以“整體人類(lèi)”為主體來(lái)做過(guò)一件事。
要求嚴(yán)格控制人工智能的科學(xué)家們糾結(jié)的點(diǎn)在于“人工智能是個(gè)黑箱”。然而我們有沒(méi)有想過(guò),人類(lèi)本身的智能載體,是一個(gè)包含800億個(gè)神經(jīng)元的神經(jīng)網(wǎng)絡(luò),就今天的腦科學(xué)而言,每個(gè)人對(duì)他人而言都是一個(gè)黑箱。我們同樣只能看到一個(gè)人的輸入與輸出,這個(gè)黑箱中有著怎樣的過(guò)程,對(duì)我們同樣是不透明的。
對(duì)于人類(lèi)智能的“黑箱”,我們發(fā)明了信任——我把信任稱(chēng)作為智人的一個(gè)根基性的智慧,因?yàn)樗蔀樯鐣?huì)化生活的基礎(chǔ)。用一個(gè)極端的例子,在恐怖襲擊中,“獨(dú)狼”式恐怖襲擊比團(tuán)隊(duì)作案的襲擊更難防范,美國(guó)不少槍擊案的作案者,可能之前就是鄰居或同學(xué),毫無(wú)征兆。盡管這難以防范,但并沒(méi)有讓人們從此不敢再進(jìn)入公共場(chǎng)所或校園。
上觀(guān)新聞:您的意思是既然我們選擇把信任給了彼此,為什么不能把它給同樣是黑箱的人工智能?
吳冠軍:不妨把人類(lèi)的智能和人工智能放在一起看。當(dāng)我們批評(píng)今天的人工智能有幻覺(jué)、妄想、會(huì)說(shuō)錯(cuò)時(shí),想一想我們?nèi)擞涘e(cuò)、說(shuō)錯(cuò)的可能更多。如果我是一個(gè)哲學(xué)領(lǐng)域的外行,想知道德里達(dá)的“解構(gòu)”理論,是問(wèn)一個(gè)德里達(dá)研究專(zhuān)家還是ChatGPT?后者的答案可能更靠譜,因?yàn)榧词故亲钆5牡吕镞_(dá)專(zhuān)家,也沒(méi)有一個(gè)人能把德里達(dá)所有著作全部背下來(lái)并隨時(shí)精準(zhǔn)重復(fù)。
德國(guó)社會(huì)學(xué)家尼古拉斯·盧曼說(shuō),任何信任都是信息透支。什么叫透支?你想盡辦法從各種途徑搜集的關(guān)于對(duì)方的信息,都不足以讓你賦予其完全的信任。
劉慈欣在他的科幻小說(shuō)《三體》中,使用了“猜疑鏈”這個(gè)詞。猜疑一旦取代信任,那么這個(gè)鏈條會(huì)無(wú)限延續(xù)。那么,怎么打破“猜疑鏈”?除了通過(guò)互動(dòng)溝通降低猜疑程度之外,還需要一次“跳躍”,即一個(gè)付出信任的決斷。這種信任是一種政治智慧,令人類(lèi)社會(huì)出現(xiàn)合作的可能。人類(lèi)憑借信任跨越猜疑完成了那么多了不起的事,當(dāng)人工智能出現(xiàn)后,我們有必要重新研究信任問(wèn)題。
人工智能會(huì)讓我們“變傻”嗎
上觀(guān)新聞:您書(shū)里有一個(gè)觀(guān)點(diǎn)非常有沖擊性,即人工智能可能帶來(lái)“人工愚蠢”。一些高校目前已經(jīng)有了新情況——學(xué)生利用AI進(jìn)行學(xué)習(xí)、研究、寫(xiě)論文已經(jīng)非常普遍,而這種“高效輔助”似乎正在影響教育的達(dá)成。在您看來(lái),除了教育領(lǐng)域以外,“人工愚蠢”還可能波及哪個(gè)領(lǐng)域?
吳冠軍:隨著人工智能變得越來(lái)越智能,我們可能變蠢。人類(lèi)學(xué)觀(guān)察告訴我們,赤道附近的文明發(fā)展速度比溫帶慢,恰恰是因?yàn)槟抢飾l件太好了,隨便吃個(gè)果子糖分就很高,不會(huì)餓肚子,更不會(huì)挨凍。智能技術(shù)會(huì)讓我們(至少我們中不少人)不必親身參與智能性的實(shí)踐,長(zhǎng)期效應(yīng)就是變得愚蠢。比如,有了計(jì)算器后很多人的心算能力就“廢”掉了。隨著智能技術(shù)的指數(shù)級(jí)迭代,人們會(huì)越來(lái)越多地放棄參與智能活動(dòng),你以前是有這個(gè)能力的,但是你自己荒廢了。長(zhǎng)此以往,人類(lèi)在生物演化上也會(huì)退化的。
今天,很多人愛(ài)刷短視頻。當(dāng)跟抽象文字打交道時(shí),其實(shí)大腦是稍微有點(diǎn)不舒服的,因?yàn)槲覀內(nèi)祟?lèi)的視覺(jué)神經(jīng)一開(kāi)始不是處理抽象文字的。森林里,我們的祖先看到一只猛獸,馬上逃跑。我們用視覺(jué)神經(jīng)去處理抽象的東西時(shí)間不長(zhǎng),就幾千年的時(shí)間,所以閱讀是不舒服的。
但就是因?yàn)檫@些不舒服,使得我們有了更多的抽象思考能力、分析能力。但是用刷短視頻代替閱讀,恰恰會(huì)使得我們的這個(gè)能力閑置,長(zhǎng)此以往陷入“退化”。若我們?cè)谏镆饬x上一代一代“變傻”,低智到一定時(shí)候,我們就真的沒(méi)法參與真正認(rèn)真的思考了。很多時(shí)候刷短視頻我們“哈哈哈”笑,甚至連笑話(huà)都不是一整段的了,故事邏輯都不要了,反正只要某個(gè)點(diǎn),“哈哈哈”就笑起來(lái)了。
這樣的狀態(tài),是值得深思的。
物不同而理同,說(shuō)到生成式人工智能大模型,比如ChatGPT也一樣。學(xué)校里很多開(kāi)放性課堂作業(yè)需要花時(shí)間去規(guī)劃、去調(diào)研、去爭(zhēng)論、去歸納,現(xiàn)在靠大模型來(lái)一番輸入輸出,成品稍加修改提交老師,教育和練習(xí)的基本目標(biāo)達(dá)到了嗎?答案顯然是否定的,是它幫你做了閱讀、調(diào)研、解讀、思考……
當(dāng)用這種方式與人工智能“合作”的時(shí)候,是在允許它代替完成本該我們承擔(dān)的智能性的、大腦皮層參與的任務(wù)。哺乳動(dòng)物中,只有人類(lèi)的大腦皮層才有那么多皺褶,一層一層長(zhǎng)出來(lái)不容易,不用了或許很快就會(huì)平下去。
那么是不是說(shuō),我們就應(yīng)該為此而禁掉ChatGPT、中斷發(fā)展人工智能?不,我們真正應(yīng)該改變的是與后者的合作方式。
人工智能可以是給教育帶來(lái)負(fù)面影響的“代筆槍手”,同樣可以是帶來(lái)可靠分析與啟發(fā)的優(yōu)秀科研伴侶。前者讓學(xué)生喪失了學(xué)習(xí)的主體性,后者讓學(xué)者更愿意做科研,因?yàn)樗?jié)省了以前大量的重復(fù)低效非創(chuàng)造性勞動(dòng)的時(shí)間,令做科研這件事的爽點(diǎn)越來(lái)越高。
所以我的觀(guān)點(diǎn)是,人工智能把我們“變傻”的原因在于我們?cè)试S它代替自己的智能實(shí)踐,是自己放棄對(duì)該實(shí)踐的主導(dǎo)和參與,而非技術(shù)本身。它使我們變得更“傻”的唯一可能性,是我們自己允許它讓我們變“傻”,在這個(gè)意義上,才會(huì)出現(xiàn)“人工愚蠢”。
當(dāng)下,技術(shù)智能正在指數(shù)級(jí)增長(zhǎng),而應(yīng)與之匹配的政治智慧卻鮮有發(fā)展,甚至倒退。
上觀(guān)新聞:然而不可否認(rèn)的是,追求舒適和高效是人類(lèi)的本能,我們?cè)撊绾蔚挚惯@種技術(shù)浪潮可能帶來(lái)的“去智化”?這似乎是無(wú)解的,因?yàn)闊o(wú)論從效率、從慕強(qiáng)的角度來(lái)看,發(fā)展趨勢(shì)都很難阻擋,就類(lèi)似我們無(wú)法減少短視頻對(duì)長(zhǎng)閱讀、長(zhǎng)視頻的巨大沖擊。
吳冠軍:首先應(yīng)有所意識(shí)。要抵抗“去智化”,就需要重新定位我們?nèi)祟?lèi)之智的落點(diǎn)。我在華東師范大學(xué)政治與國(guó)際關(guān)系學(xué)院工作,試問(wèn),我們能不能讓ChatGPT來(lái)為我們解決俄烏沖突或中東問(wèn)題?它會(huì)回復(fù)你一大堆已有做法的總結(jié)歸納,但問(wèn)題恰恰是已有做法并不能解決困境。人工智能無(wú)法替代智人政治智慧的持續(xù)性創(chuàng)造。
所以,即便人工智能在下圍棋乃至氣象學(xué)與結(jié)構(gòu)分子生物學(xué)研究上超過(guò)人類(lèi),但它并沒(méi)有全部覆蓋人類(lèi)之智。所以我們需要面對(duì)人工智能重組我們自己的智,在這些人工智能無(wú)能為力的地方投入更大的精力。
20世紀(jì)50年代諾伯特·維納出過(guò)一本書(shū)——《人有人的用處:控制論與社會(huì)》,從偶然性的宇宙觀(guān)念和歷史上的控制論談起,圍繞著語(yǔ)言、學(xué)習(xí)、有機(jī)體、法律、通信、社會(huì)政策和知識(shí)分子的作用等各個(gè)方面討論了控制論的應(yīng)用,展示了從控制論的觀(guān)念來(lái)觀(guān)察社會(huì)所產(chǎn)生的情景。這本書(shū)的大背景是工業(yè)革命引發(fā)了關(guān)于機(jī)器能否代替人的討論。在今天這個(gè)智能時(shí)代,面對(duì)各種各樣的大模型,我們很有必要重新定義“人的用處”。
人類(lèi)學(xué)家湯因比晚年寫(xiě)的一本書(shū)里,有一句話(huà)說(shuō)得很好,“我們今天陷入人類(lèi)自己制造的僵局里面”。這個(gè)僵局不是天災(zāi),是我們?nèi)祟?lèi)自己把自己卡“死”了,走不出來(lái)——譬如今天的國(guó)際格局,譬如“人類(lèi)世”的生態(tài)變異。如何擺脫這個(gè)人類(lèi)自我施加的困境?未來(lái)需要更多思想者參與、投身進(jìn)去。
我的這本書(shū)的副標(biāo)題是“技術(shù)—政治與后人類(lèi)境況”,想表達(dá)的是,技術(shù)取代不了政治,政治的智慧、政治的思考,這是我們今天智人的一個(gè)特別大的用武之地。這不僅是一種選擇,更是一種需求。
在社會(huì)層面上,我們要認(rèn)可有大量的人原來(lái)的工作、原來(lái)的研究、原來(lái)的崗位被取代了。當(dāng)人類(lèi)面臨這樣的社會(huì)新問(wèn)題時(shí),尤為需要政治智慧。
上觀(guān)新聞:是否可以這樣理解,即從倫理上來(lái)說(shuō),這是個(gè)體的選擇和命運(yùn);從政治意義上來(lái)說(shuō),甚至是國(guó)家層面、社會(huì)層面的對(duì)策,要有提前的思考?
吳冠軍:技術(shù)和政治,構(gòu)成了智人發(fā)展文明的兩個(gè)基石。當(dāng)下,技術(shù)智能正在指數(shù)級(jí)增長(zhǎng),而應(yīng)與之匹配的政治智慧卻鮮有發(fā)展,甚至倒退。
上觀(guān)新聞:我注意到您書(shū)里面有一句話(huà),似乎就講到社會(huì)層面的事,“人類(lèi)正面臨其文明史上第一次全面出現(xiàn)‘不被需要’的困境”。
吳冠軍:我們需要面對(duì)“‘不被需要’的政治學(xué)”,不是政治學(xué)“不被需要”,而是處理智人個(gè)體大范圍“不被需要”的政治學(xué)。我們?nèi)绾蝸?lái)應(yīng)對(duì)這樣的困境?赫拉利所說(shuō)的“無(wú)用之人”將何去何從?
為解決這一問(wèn)題,美國(guó)曾有人提出“UBI”,即universal basic income(普遍的基本收入),社會(huì)上所有人每月啥也不用干就能獲得1000美元收入,但社會(huì)馬上就面對(duì)錢(qián)從哪里來(lái)的問(wèn)題。即使如此,UBI依然是政治智慧層面上的一次創(chuàng)新。在人工智能指數(shù)級(jí)迭代的奇點(diǎn)時(shí)代,我們需要這樣的政治智慧的探索。
人工智能迅猛發(fā)展的時(shí)代,也必須是政治哲學(xué)的大時(shí)代。今天政治學(xué)上用的核心理念、概念,都還是幾百年前的政治哲人們創(chuàng)新出來(lái)的。面對(duì)人工智能能動(dòng)者的挑戰(zhàn),人類(lèi)能動(dòng)者并不應(yīng)直接放棄控制或繼續(xù)幻想能夠擁有控制。能否以富有智慧的方式來(lái)面對(duì)這個(gè)挑戰(zhàn),這也許就是后人類(lèi)境況下人類(lèi)的首要任務(wù)。
重新尋找自己的生態(tài)位
上觀(guān)新聞:還有一個(gè)問(wèn)題現(xiàn)在爭(zhēng)論得很激烈,因?yàn)楦鞣嚼妫詻](méi)有一個(gè)標(biāo)準(zhǔn)答案?,F(xiàn)在訓(xùn)練人工智能的模型很多,訓(xùn)練模型需要用人類(lèi)世界創(chuàng)造出來(lái)的東西,特別是媒體、藝術(shù)各方面精神文明的創(chuàng)造作為養(yǎng)料。人類(lèi)創(chuàng)作者認(rèn)為你把我的創(chuàng)作拿去喂養(yǎng)人工智能長(zhǎng)大,用來(lái)代替我們,我的版權(quán)必須得到特別保護(hù)和補(bǔ)償。這是一種倫理上的沖突。對(duì)此您怎么看?
吳冠軍:我們每個(gè)人理解問(wèn)題都是出于我們所在時(shí)空環(huán)境的坐標(biāo)。往前推幾百年,“版權(quán)”這個(gè)概念都是沒(méi)有的;再過(guò)個(gè)幾十年、幾百年,這些詞可能也不存在了。視野的尺度可以放得更大更遠(yuǎn)些。我甚至?xí)f(shuō),如果你的作品沒(méi)有被人工智能納入訓(xùn)練,或許就意味著你未能在文明史中留下自己的痕跡。
上觀(guān)新聞:可是這事關(guān)生存,是飯碗問(wèn)題。
吳冠軍:是的,所以這不只是個(gè)倫理學(xué)的問(wèn)題,而是政治學(xué)的問(wèn)題。單就“版權(quán)”而言,這個(gè)世界一直在變化,你怎么去理解變化?人們覺(jué)得沒(méi)有變化或不該變化,往往因?yàn)樯虝?,丈量的尺度太小?/span>
上觀(guān)新聞:我看到倫敦的創(chuàng)作者們就此提出激烈的反對(duì)。對(duì)此,訓(xùn)練人工智能模型的技術(shù)總監(jiān)回應(yīng)的是:“我很擔(dān)心如果不讓我們用英國(guó)的這個(gè)素材,我們只能用別人的素材,訓(xùn)練出來(lái)的東西是不適用于英國(guó)的。”
吳冠軍:所以應(yīng)該抓緊時(shí)間重新尋找自己的生態(tài)位。人工智能在很多地方確實(shí)可能做得比我們好,同時(shí)也把我們從中解放出來(lái),讓我們有可能從事更能展現(xiàn)智人之智的活動(dòng)。人工智能發(fā)展的同時(shí),它的擠壓迫使人類(lèi)第二次生長(zhǎng),重新定義智慧。

《再見(jiàn)智人:技術(shù)—政治與后人類(lèi)境況》
吳冠軍 著 北京大學(xué)出版社
閱讀原文
記者丨彭德倩
來(lái)源丨上觀(guān)新聞
編輯丨王越月
編審丨郭文君
更多閱讀:
解放日?qǐng)?bào)丨重新定義"人的用處"