直擊WAIC丨圖靈獎得主Joseph Sifakis:AGI需要新范式,實現(xiàn)自主性仍然遙遠
2023-07-09 10:59:57    21世紀經(jīng)濟報道

“ICT(信息通信技術)和AI之間的加速融合正在創(chuàng)造自主系統(tǒng),這是從弱AI到AGI(通用人工智能)的一大步?!?/p>

7月7日,在2023世界人工智能大會區(qū)塊鏈+WEB3新發(fā)展論壇上,圖靈獎得主、中國科學院外籍院士Joseph Sifakis也圍繞人工智能帶來諸多前沿技術的研究和思考。

他指出自主系統(tǒng)是邁向AGI的重要一步,而要實現(xiàn)這一步還有很長的路要走,未來前行方向包括設計出圍繞可信組件構建可信系統(tǒng)的技術、發(fā)展新的科學和工程基礎、驗證智能系統(tǒng)等。


(相關資料圖)

模型檢查領域作出杰出貢獻

不像同為圖靈獎得主的Yann LeCun,既有一個相當中文的名字“楊立昆”,又在Meta這樣為大眾所熟知的科技大廠任首席科學家,還有一些諸如“深度學習之父”等響亮易懂的稱號,Joseph Sifakis則隱秘許多,聊到他,自然離不開他在模型檢查領域所做的杰出工作。

如人們對工程開發(fā)的預想,在實際部署之前,為了避免不必要的失敗,包括系統(tǒng)在內(nèi)的所有組成都要嚴格檢測可能存在的錯誤和缺陷,因為很多時候,一個小小的bug就會讓全部努力“付諸東流”。例如1996年6月,歐洲12國聯(lián)合研制的Ariane 5型運載火箭在首次發(fā)射時,僅由于一行代碼的溢出錯誤就導致火箭發(fā)射失敗,數(shù)億歐元因此放了“煙花”。

隨著科技的發(fā)展,各種系統(tǒng)也越來越復雜,如今一臺汽車所涉及的代碼就可以達到上億行,手動驗證系統(tǒng)的安全性與可靠性就是一件幾乎不可能實現(xiàn)的事情。

在這樣的背景下,Joseph Sifakis在內(nèi)的幾位計算機科學家在1981年提出模型檢查的概念。

在提出模型檢查的概念后,Joseph Sifakis也一直在積極推動模型檢查在嵌入式系統(tǒng)領域的應用,直到如今,模型檢查依舊是一個活躍的研究和開發(fā)領域,研究人員努力提高其拓展性、準確性和可用性。Joseph Sifakis也因其在模型檢驗領域的杰出貢獻在2007年共同榮獲了計算機領域的最高獎項——圖靈獎。

所謂嵌入式系統(tǒng),簡單理解即火箭、汽車、手機等設備等所搭載的各種控制系統(tǒng),隨著物聯(lián)網(wǎng)的興起,形形色色的智能化產(chǎn)品也讓嵌入式系統(tǒng)出現(xiàn)在我們?nèi)粘I畹拿總€角落。

“物聯(lián)網(wǎng)革命的背后是,對互聯(lián)的智能對象提供的資源管理自動化和增強人們生活質(zhì)量需求的日益增長?!弊鳛殚L期深耕行業(yè)的大牛,Joseph Sifakis早前也發(fā)表過許多相關的見解。

物聯(lián)網(wǎng)之后,大模型掀起一波新的高潮,生成式AI重新點燃了人們對AGI的興趣,而AGI的最終愿景就是機器代替人類完成各種復雜的任務,也就是在各種場景下構建可以自主運行的系統(tǒng),Joseph Sifakis指出,構建自主系統(tǒng)是從弱人工智能到AGI的重要環(huán)節(jié)。

Joseph Sifakis專門強調(diào)了自動化系統(tǒng)和自主系統(tǒng)之間的區(qū)別,雖然二者都涉及與環(huán)境交互,但區(qū)別在于不同的意識感知和決策機制。

“自動化系統(tǒng)以恒溫器為例,它只需要從環(huán)境中讀溫度取值,再對溫度進行調(diào)節(jié),這是一種靜態(tài)的控制。而對于自動駕駛來說,事情要復雜得多,這種自主系統(tǒng)需要更加復雜的傳感器和驅(qū)動器,并且要對得到的圖像進行逐幀分析,識別障礙物,然后輸入運動學的屬性,感知功能相當于一個對外部世界的認知模型,自主系統(tǒng)基于這個模型進行決策,從而完成動態(tài)的目標管理。”Joseph Sifakis表示。

而要彌合自動化和自主性之間的差距,Joseph Sifakis認為還有很長的路要走,“這也是我們從自動駕駛中認識到的,過渡不是漸進的,為了實現(xiàn)完全自主的愿景,我認為需要發(fā)展新的科學和工程基礎,而這需要一些時間?!?/p>

亟需新范式

“今天,弱Al為我們提供了構建智能系統(tǒng)的元素,但我們沒有像建造橋梁房屋一樣總結建立復雜智能系統(tǒng)的理論。”Joseph Sifakis表示。

環(huán)境的不確定性和決策的復雜性則共同組成了通往AGI路上的絆腳石,而Joseph Sifakis在內(nèi)多位行業(yè)大牛也堅定認為無法繞開這些挑戰(zhàn)實現(xiàn)真實可靠的自主和智能。

在ChatGPT爆火之后,美國斯坦福大學組織行為學副教授Michal Kosinski實驗發(fā)現(xiàn),ChatGPT回答問題的正確率高達93%,并認為其心智理論能力相當于9歲的人類兒童。

這也引來諸多AI領域人士的反對聲音,如北京通用人工智能研究院院長朱松純認為大語言模型并不符合通用人工智能的要求。

堅決反對“AI末日說”的楊立昆也表達過類似的觀點:GPT等大模型的關鍵缺陷在于其只學習了文本或者其他單一數(shù)據(jù),對現(xiàn)實世界的了解十分淺顯,而人類的知識和文明不全是從書本上獲得的,“書呆子”AI未必有多聰明。

“即使GPT能通過類似測試,也只是體現(xiàn)了它具備通過這個心智理論測試的能力,并不能說明它具有心智理論,同時我們也要反思:用這些傳統(tǒng)測試任務來驗證機器是否發(fā)展出心智理論的做法是否嚴謹合法?為何機器可以不用心智理論就能完成這些任務?”朱松純表示。

而Joseph Sifakis則認為,人類的思維與大語言模型背后的神經(jīng)網(wǎng)絡之間有著兩個根本區(qū)別:一是人類的思維更加穩(wěn)健,相比之下,神經(jīng)網(wǎng)絡即使面對細微的問題變化,也會產(chǎn)生完全不同的答案,二是人類思維基于常識知識,更能避免在答案中產(chǎn)生矛盾。

不過,對于通用人工智能,兩人都呼吁相似的從感知認知到?jīng)Q策執(zhí)行的新范式。

Joseph Sifakis指出,傳統(tǒng)構建系統(tǒng)工程的方法,雖然能夠應用于飛機制造以及普通生產(chǎn)制造系統(tǒng),但無法勝任更復雜的自主系統(tǒng),而對于自動駕駛領域中另一種試圖繞開環(huán)境感知與復雜決策的端到端的解決方案,即以行駛過程中由攝像頭采集到的道路場景圖像和人為操作車輛的控制參數(shù)數(shù)據(jù)作為數(shù)據(jù)樣本訓練的自動駕駛大模型,Joseph Sifakis也給予了否定。

“由于目前人工智能輸出的方案缺乏可解釋性,其輸出的結果有時候未必可靠,系統(tǒng)工程的構建是一個突破點,我們需要從小規(guī)模、集中式、環(huán)境變量可被設定的自動化系統(tǒng),轉向復雜的、分布式的自主系統(tǒng)?!盝oseph Sifakis說。

“我認為我們應該承認智能系統(tǒng)需要嚴格的驗證方法,誠實地克服當前的限制性,開發(fā)新的基礎,并在必要時可能修改認識和方法要求,但是要小心,要了解我們在做什么?!盝oseph Sifakis補充道。

(文章來源:21世紀經(jīng)濟報道)

關鍵詞: