人工智能正在擴展人類想象力的畫布,并以極快的速度這樣做。
“想象一下,未來10年,人工通用智能系統(簡稱AGI)幾乎在每一個領域都超過了人類的專業知識,該系統最終可能超過所有大型公司的總體生產力。這將提高人們的生活水平,但同時,我們必須共同管理其可能帶來的風險。”6月10日,在2023北京智源大會—AI安全與對齊論壇上,OpenAI聯合創始人山姆·阿爾特曼在其主題演講中如是說。
(資料圖片僅供參考)
阿爾特曼直言,AGI是一項關乎全球的技術,不計后果地開發和部署所帶來的事故成本將影響到每一個人。“超強人工智能在10年內就會出現,現在,盡管這項技術仍處于早期,但在全球范圍內建立合作的標準和框架是必要的。”阿爾特曼呼吁,人類需要為AI構筑“安全護欄”,使之更好地服務人類。
北京智源人工智能研究院院長黃鐵軍也表示,今年,一批大模型問世,人工智能出現了六七十年來里程碑式的新特性——涌現性,即能夠產生預料之外的新能力,這也引發了很多人新的擔憂。
人們擔心,由于AI會涌現出各種各樣預料之外的可能,因此很難對其進行監管。“這是一個巨大挑戰。”黃鐵軍坦言,“但這并不意味著人們無法對AI進行管理。”他表示,人類和AI相似,同樣也是不可預測的智能系統。實踐證明,倫理、法律法規等方式很好地為人類樹立了規范。如何管理一個創造性極強的系統,社會學、歷史學等學科都能提供很好的借鑒意義。
技術層面上,OpenAI正在推進對齊研究,讓AGI與人類價值觀保持一致并遵循人類意圖。“我們應該在促進和引導AI對齊與安全研究方向進行投資。”阿爾特曼說。
未來的AGI系統或許具有10萬行二進制代碼,人類監管人員不太可能發現這樣的模型是否在做一些邪惡的事情。
阿爾特曼表示,對數據集參數極其龐大的大模型而言,很難以人力的方式逐一讓AI與人類價值觀對齊。為此,可使用一種名為“可拓展監督”的方式。“我們可以嘗試使用AI系統來協助人類監督其他AI系統。”他說,這種方式的最終目標,是訓練AI系統來幫助人類進行對齊研究。
同時,還要加強合作。阿爾特曼認為,隨著人工智能系統越來越強大,全球合作變得前所未有的重要。首先,應在技術研發過程中建立平等、統一的國際規范和標準,以便所有國家都能使用AGI;其次,應通過國際合作,以可驗證的方式,建立全球對日益強大的人工智能系統安全開發的信任體系。
做到上述兩點并不容易,需要國際科技界的通力合作,特別是在推動建立提高人工智能系統安全技術進步方面的透明度和知識共享的機制方面。當研究人員發現新出現的安全問題時,應及時分享他們的見解,以實現利益的最大化。“我們需要認真思考,如何在尊重和保護知識產權的同時,鼓勵這樣的規范。這可以為深化合作打開新的大門。”阿爾特曼說。
“中國擁有世界上一些最優秀的AI系統。”阿爾特曼表示,“真誠希望中國和美國的研究人員能對AI領域的國際合作作出貢獻。”(記者 付麗麗)
編輯:王韻
標簽: