“人工智能就像是一塊來自未來的巨大磁鐵在牽引我們前進,如何確保自己不會被超越人類的智能所控制?”6月10日,美國加州大學伯克利分校計算機科學教授、人類兼容人工智能中心(Center for Human-Compatible AI)主任斯圖爾特·羅素(Stuart Russell)在2023北京智源大會上發(fā)表演講稱,人工智能系統(tǒng)的設計必須遵循兩個原則。首先,AI的行為必須符合人類的最大利益;第二,AI自己不應該知道這些利益是什么。
在對話環(huán)節(jié),羅素與圖靈獎得主、中國科學院院士姚期智共同探討了人工智能的長期未來及其與人類的關系,羅素引用中國古代哲學家孟子“博愛”的觀點,“未來,當人工智能系統(tǒng)在代表社會做出決策時,應當合理地考慮到每個人的利益?!?/p>
【資料圖】
羅素與他人合著的《人工智能:一種現(xiàn)代的方法》被譽為人工智能領域最受歡迎的教科書,被135個國家的1500多所大學采用。2022年,國際人工智能聯(lián)合會議(IJCAI)授予羅素卓越研究獎,他此前已獲得IJCAI計算機與思想獎,由此成為世界上第二個能夠同時獲得兩項IJCAI主要獎項的科學家。
通用人工智能還很遙遠
在北京大會現(xiàn)場,羅素在題為《AI: Some Thoughts?(一些關于AI的思考)》的演講中對通用人工智能(AGI)做出了定義:通用人工智能是指在大多數(shù)經(jīng)濟有價值的任務上超越人類能力的人工智能系統(tǒng)。這種人工智能系統(tǒng)可以比人類更好更快地學習和執(zhí)行任何任務,包括人類無法處理的任務,并且由于機器在速度、內(nèi)存、通信和帶寬方面的巨大優(yōu)勢,未來,通用人工智能在幾乎所有領域都將遠遠超過人類的能力。
那么,人類距離通用人工智能還有多遠的距離呢?羅素表示,我們離通用人工智能還很遙遠。“事實上,仍然存在許多尚未解決的重大問題。”
羅素在演講中指出,ChatGPT和GPT-4并不理解世界,也沒有在“回答”問題,“如果說通用人工智能是一件完整的拼圖,大語言模型僅僅只是其中的一塊,但我們并不真正了解如何將它與拼圖的其他部分連接起來,以真正實現(xiàn)通用人工智能?!彼f,“我相信甚至還有部分缺失的拼圖沒有被找到?!?/p>
羅素認為,目前的人工智能系統(tǒng)存在一個根本性的弱點,即它們使用電路來生成輸出?!拔覀冋噲D從電路中獲得高度智能的行為,而電路本身是一種相當有限的計算形式?!彼J為,電路無法準確地表達和理解一些基本的概念,這意味著這些系統(tǒng)需要大量的訓練數(shù)據(jù)來學習一些可以用簡單的程序定義的函數(shù)。他認為,未來人工智能的發(fā)展方向應該是使用基于明確的知識表征的技術。
“拋開技術問題不談,如果我們確實創(chuàng)造了通用人工智能。接下來會發(fā)生什么?”羅素引用現(xiàn)代計算機科學奠基人艾倫·圖靈的話說,“機器思維方法一旦開始,用不了多久就會超越我們微弱的力量,這似乎很可怕?!?/p>
“我們?nèi)绾斡肋h確保自己不會被人工智能所控制?這是我們面臨的問題——如果找不到這個問題的答案,那么我認為別無選擇,只能停止開發(fā)通用人工智能。”羅素表示。
今年3月,羅素曾與特斯拉CEO埃隆·馬斯克、“AI教父”杰弗里·辛頓(Geoffrey Hinton)等上千人簽署公開信,呼吁暫停訓練比GPT-4更強大的AI系統(tǒng)至少六個月。
羅素在會上強調(diào),解決問題的答案是有的。人工智能系統(tǒng)的設計必須遵循兩個原則。首先,AI的行為必須符合人類的最大利益;第二,AI自己不應該知道這些利益是什么。因此,它們不確定人類的偏好和未來,這種不確定性會給人類控制權。
羅素稱,人們需要改變觀念,不要追求“機器必須是智能的”,而要注重機器的“有益性”,使之符合人類的根本利益?!巴庑侨耸欠浅V悄艿?,但我們并不一定希望它們來到地球。”
AI與孟子的博愛思想
在對話環(huán)節(jié)中,羅素與姚期智進行了一場深刻而富有洞見的討論。
在被姚期智問及人工智能與人類關系的長期未來時,羅素表示,人類利用AI滿足自身利益,從而導致AI不可控的現(xiàn)象源于功利主義,“功利主義是人類進步的一個重要步驟,但也導致了一些問題?!崩?,當一個決定會影響到多少人的實際存在時,如何做出決策?人們想要一個不太幸福的大群體還是一個很幸福的小群體?“對于這類問題,我們沒有很好的答案,但我們需要回答這些道德哲學的核心問題,因為人工智能系統(tǒng)將擁有強大的力量,而我們最好確保它們以正確的方式使用這種力量?!?/p>
羅素與圖靈獎得主、中國科學院院士姚期智(右)共同探討了人工智能的長期未來及其與人類的關系。
羅素在回答中引用了中國古代哲學家孟子的觀點,“孟子在中國談到了博愛的概念,意思是在做道德決定時,每個人的利益都應該被考慮在內(nèi)。而每個人的偏好都應該被平等對待?!彼嘈庞幸环N基于復雜形式的偏好功利主義(preference utilitarianism)的方法,可以使人工智能系統(tǒng)在代表社會做出決策時,能合理地考慮到每個人的利益。
羅素問,當有一個人和許多機器時,如何確保這些機器相互協(xié)作來幫助人類?當許多人有許多機器時,這就涉及到道德哲學的基本問題。他認為,AI系統(tǒng)應該被設計為代表全人類工作。“如果你想讓AI系統(tǒng)順應個人的愿望,那么你必須證明該AI系統(tǒng)的行動范圍被限制在個人關注的范圍內(nèi),它不能通過追求個人利益來傷害其他個人,因為它并不關心其他個人。因此,我認為默認情況應該是,人工智能系統(tǒng)是代表人類工作的?!?/p>
此外,在討論中,羅素提到了經(jīng)濟學術語“位置性商品”,“位置性商品”指的是人們重視的并非物品本身,而是它們隱含了優(yōu)于其他人的意義?!盀槭裁粗Z貝爾獎是有價值的?因為別人都沒有,這證明你比世界上幾乎所有人都聰明?!彼f。
“位置性商品的性質是,在某種意義上存在零和游戲。簡單地說,不是每個人都能進入前1%的行列。因此,如果你從成為1%的人中獲得個人價值、自豪感和自尊心,我們就不能把這種自豪感和自尊心給所有人。”羅素說。
那么,AI系統(tǒng)在代表社會做決定時,是否應該考慮到位置性商品?“如果我們說不應該,那就會造成社會運行方式的巨大變化。這是一個更加困難的問題。我認為社會中的許多內(nèi)部摩擦實際上是由這些位置性商品引起的,這些商品根本不可能由每個人實現(xiàn)?!?/p>
像社交媒體算法一樣危險
姚期智問道,未來是否有可能制定一個“白名單”,允許人工智能系統(tǒng)被用來做有利于人類福祉的事,例如,使用人工智能方法來設計藥物和解決癌癥問題。
羅素表示,納米技術的創(chuàng)始人之一金·埃里克·德雷克斯勒(K. Eric Drexler)在過去幾年里一直致力于人工智能安全,他提出了全面人工智能服務(Comprehensive AI services,CAIS),即建立人工智能系統(tǒng)不是為了通用目標,而是為了解決特定、狹窄的問題,比如蛋白質折疊、交通預測等。比起通用人工智能,這些系統(tǒng)帶來的大規(guī)模風險相對較小。
羅素稱,“在短期內(nèi)這是一個合理的方法”,但是,“我不認為了解人工智能安全的唯一途徑,是在現(xiàn)實世界中部署一個系統(tǒng)的數(shù)億個副本,然后觀察結果。”他表示,人類不會對疫苗這么做,“我們在部署疫苗之前必須先測試它,因為我們將把它注射到數(shù)億人身上?!?/p>
因此,目前還需要更多的工作來確保人們使用這些系統(tǒng)的安全性。羅素指出,人工智能系統(tǒng)可能會通過對話來改變數(shù)億人的觀點和情緒。OpenAI等科技公司應該停止在不告知的情況下向數(shù)億人發(fā)布新的人工智能系統(tǒng),這些系統(tǒng)可能會通過對話來操縱和影響人類的思想和行為,導致一些災難性的后果,例如核戰(zhàn)爭或氣候災難。“如果你能與數(shù)億人對話,你就能說服這數(shù)億人對其他國家不那么友好,也能說服人們不那么關心氣候變化?!?/p>
羅素說,“這種情況類似于社交媒體算法,我們甚至沒有意識到它正在改變公共話語、情緒,以及我們?nèi)绾慰创撕臀磥?,這是非常危險的?!薄皬南到y(tǒng)來看,有一些我們沒有辦法檢測到的內(nèi)部目標,導致AI把我們推向這個方向。”
那么,如何保證人工智能技術的安全性和可控性?
“如果AI這項技術與核武器一樣強大或更強大,我們可能需要以類似的方式管理它?!绷_素稱,“在核武器技術發(fā)明之前,曾有物理學家認為,我們需要有一個治理結構,以確保技術只用于人類利益,而不是以武器的形式使用。不幸的是,物理學界和政府都沒有聽取他們的意見?!彼麖娬{(diào),AI這項技術與核武器、航空技術一樣強大,各個國家應該努力盡快開展這種AI安全方面的合作。
羅素認為,保證發(fā)揮AI的潛在好處需要全面變革,不能僅僅靠監(jiān)管和確立嚴格的規(guī)則及安全標準,還需要整個AI領域的文化轉變。
他給出了建議:首先,要建立人類能夠理解的AI系統(tǒng)?!拔覀儾涣私獯笮驼Z言模型以及它們?nèi)绾喂ぷ鳌N覀冃枰羞@種理解,以便對安全有信心。人類構建AI系統(tǒng)的技術,不應該依賴大量的數(shù)據(jù)訓練和內(nèi)部結構未知的黑箱?!?/p>
此外,要阻止不安全的人工智能系統(tǒng)被部署,特別是被惡意行為者使用,“需要改變整個數(shù)字生態(tài)系統(tǒng),從計算機的運行模式入手,即計算機不會運行它所認為的不安全的軟件。”
羅素在討論最后總結道,人工智能是一門科學,因此在使用它之前,需要了解它的內(nèi)部結構和工作原理。“就像我們制造飛機一樣,我們可以根據(jù)飛機的物理形狀和發(fā)動機等來說明它們是如何保持在空中的?!彼硎?,“目前,特別是在大型語言模型領域,人工智能還沒有達到這樣的水平。我們不知道它們是如何產(chǎn)生這些特性的。事實上,我們甚至不知道它們具有什么特性,所以不能將這些現(xiàn)象與它們內(nèi)部的工作原理聯(lián)系起來?!币虼?,人工智能是一門需要繼續(xù)深入探索的科學。
標簽: