新一輪科技革命和產(chǎn)業(yè)變革迅猛發(fā)展,數字技術(shù)、智能經(jīng)濟與數字化產(chǎn)業(yè)成為催生新產(chǎn)業(yè)、新業(yè)態(tài)、新模式的重點(diǎn)領(lǐng)域。發(fā)布僅6個(gè)月的ChatGPT,已掀起全球人工智能(AI)產(chǎn)業(yè)的大模型熱潮。在日前舉辦的中國人工智能產(chǎn)業(yè)年會(huì )中,AI大模型帶來(lái)的安全挑戰和發(fā)展機遇成為與會(huì )專(zhuān)家熱議話(huà)題。
賦能千行百業(yè)
ChatGPT在與人類(lèi)對話(huà)、寫(xiě)作文、寫(xiě)代碼等方面令人驚艷的表現,是AI大模型GPT通過(guò)大算力、大規模訓練數據突破自然語(yǔ)言處理瓶頸的結果。但大模型本身并不是新鮮事物,AI大模型也不止GPT這一條路線(xiàn),很多科技巨頭近幾年都在“煉”大模型,且各有積累。這也是ChatGPT走紅之后,各巨頭短短數月內就紛紛推出競品的原因。
“以ChatGPT為代表的多模態(tài)通用大模型,將深刻變革各行各業(yè)?!彪娮涌萍即髮W(xué)教授、考拉悠然科技有限公司聯(lián)合創(chuàng )始人沈復民說(shuō),行業(yè)人工智能可有效推動(dòng)技術(shù)與市場(chǎng)供需平衡,將是人工智能產(chǎn)業(yè)化的最大機遇。人工智能技術(shù)落地行業(yè)時(shí),需要克服開(kāi)發(fā)效率低、落地成本高、場(chǎng)景復雜多元等難題。
沈復民所在的研發(fā)團隊獲得了2022年度吳文俊人工智能科學(xué)技術(shù)獎自然科學(xué)一等獎。據他介紹,團隊開(kāi)發(fā)了為垂直行業(yè)賦能的多模態(tài)AI操作系統,基于行業(yè)多模態(tài)大模型、多模態(tài)融合分析、機器視覺(jué)等核心AI算法支持,可以讓企業(yè)擺脫繁雜的算法、算力、數據整合工作,快速孵化行業(yè)大模型,高效率應用到工業(yè)制造、城市治理、消費、能源、交通、建材等業(yè)務(wù)場(chǎng)景。
“通用對話(huà)技術(shù)是人工智能領(lǐng)域最具挑戰性的方向之一,也被認為是通用人工智能的必備能力。如今備受關(guān)注的對話(huà)式人工智能,其背后就有通用對話(huà)技術(shù)?!卑俣仁紫夹g(shù)官、深度學(xué)習技術(shù)及應用國家工程研究中心主任王海峰說(shuō)。中國人工智能產(chǎn)業(yè)年會(huì )期間,由他帶領(lǐng)團隊完成的“知識與深度學(xué)習融合的通用對話(huà)技術(shù)及應用”成果,獲2022年度吳文俊人工智能科技進(jìn)步獎特等獎。
公開(kāi)資料顯示,這一研究項目已獲授權發(fā)明專(zhuān)利82項,發(fā)表高水平論文36篇,在國際權威評測中獲世界冠軍11項。目前項目成果實(shí)現了大規模產(chǎn)業(yè)應用,已支持5億智能設備,服務(wù)超過(guò)10億用戶(hù),覆蓋包括通信、金融、汽車(chē)、能源等20多個(gè)行業(yè)。
爭取“主動(dòng)安全”
技術(shù)是把雙刃劍。人工智能大模型能力越大,一旦濫用帶來(lái)的危害也就越大。當前,ChatGPT等工具被用于生成假新聞、假照片、假視頻,甚至實(shí)施詐騙等犯罪行為,引發(fā)人們對大模型安全性的擔憂(yōu)。
西北工業(yè)大學(xué)教授王震是網(wǎng)絡(luò )空間智能對抗應用研究領(lǐng)域的專(zhuān)家,他認為,要用人工智能驅動(dòng)網(wǎng)絡(luò )空間智能對抗。比如,用人工智能檢測、識別有害信息,搭建“主動(dòng)安全”的智能防御網(wǎng)。
“只有在A(yíng)I發(fā)展過(guò)程中,我們才能面對問(wèn)題、解決問(wèn)題,并找到機遇?!蔽浵伡瘓FAI風(fēng)險管理負責人楊舟表示,在A(yíng)I管理中,安全事件對日常風(fēng)險管理至關(guān)重要?!拔覀冃枰匾暫皖A測相關(guān)事件,分析安全問(wèn)題,避免發(fā)展帶來(lái)的風(fēng)險?!?/p>
了解機理是安全管理的基礎。不過(guò),大模型的“智能涌現”目前還是個(gè)難以解釋的黑箱,沒(méi)有人能理解、預測或可靠地控制這些大模型,甚至模型的創(chuàng )造者也不能。開(kāi)發(fā)出ChatGPT的公司OpenAI,也為大模型做了大量?jì)r(jià)值敏感設計和道德嵌入工作,但仍然存在明顯的漏洞和局限。
“雖然大模型的能力在不斷變強,但如果不對其進(jìn)行專(zhuān)門(mén)的安全性訓練或安全性加固,其脆弱性不會(huì )得到任何改善?!比鹑R智慧公司首席執行官田天認為,人工智能大模型的安全性面臨很多挑戰。
“大模型是人工智能發(fā)展的轉折點(diǎn),研究人員需要進(jìn)一步了解這些大模型為何具備類(lèi)人思考的能力?!毕愀劭萍即髮W(xué)教授馮雁表示,ChatGPT最初只作為科研項目發(fā)布,但通過(guò)加入人機交互界面,迅速變成網(wǎng)紅產(chǎn)品。其爆紅帶來(lái)的倫理問(wèn)題始料未及,也給生成式人工智能的管理提出了挑戰?!爸挥姓嬲拈_(kāi)源,才能共同研究,理解大模型存在的問(wèn)題和產(chǎn)生的根源,更好地進(jìn)行管理?!?/p>
“商湯一直是開(kāi)源開(kāi)放的貢獻者和支持者,但在開(kāi)源上我們要謹慎一些,特別是目前對于大模型而言,安全防護體系還未健全?!鄙虦萍既斯ぶ悄軅惱砼c治理研究主任胡正坤說(shuō),在智能時(shí)代把底層模型開(kāi)源,不見(jiàn)得安全,因為在開(kāi)放能力的同時(shí),也在開(kāi)放薄弱點(diǎn),而薄弱點(diǎn)有可能被不法分子利用。
亟需深度治理
專(zhuān)家們對未來(lái)的人工智能長(cháng)遠治理做出種種設想。
“不能把價(jià)值設計看成治理的唯一路徑?!睆偷┐髮W(xué)應用倫理學(xué)研究中心教授王國豫認為,針對現階段人工智能治理的局限性,可從三方面采取措施。一是充分評估數據和模型的倫理影響和風(fēng)險點(diǎn);二是從流程方面,不僅要考慮通用模型,還要把通用模型納入到社會(huì )生態(tài)系統、社會(huì )政治經(jīng)濟系統來(lái)考慮;三是探索倫理方法,充分探索“價(jià)值敏感設計”“負責任創(chuàng )新”等倫理方法在通用模型語(yǔ)境下的可行性。
中國社會(huì )科學(xué)院哲學(xué)所科技哲學(xué)研究室主任、研究員段偉文表示,需要警惕機器對人類(lèi)思維的馴化。比如,有的人不擅社交,可能用人工智能生成對話(huà)的方式幫他社交聊天,這樣的對話(huà)機制會(huì )反過(guò)來(lái)馴化人類(lèi)。他建議加強人類(lèi)和人工智能的交互和溝通,不僅要了解人類(lèi)怎么去修機器,也要研究機器如何影響人類(lèi)。
中科院自動(dòng)化研究所研究員曾毅期待構建人工智能的道德直覺(jué),“為機器人立心、為人工智能立心”是重要的長(cháng)遠工作目標?!皬娀瘜W(xué)習的獎懲只是加加減減,它不是真正對道德的理解,除非人工智能實(shí)現基于自我的道德直覺(jué)。缺乏自我的人工智能無(wú)法擁有真正的道德直覺(jué),做真正的道德決策。我們在做一個(gè)基于類(lèi)腦的脈沖神經(jīng)網(wǎng)絡(luò )構建創(chuàng )生的人工智能引擎,希望讓它像兒童一樣去學(xué)習,獲得自我感知?!痹阏f(shuō)。
“從要求人工智能大模型合乎倫理,到真正構建有道德的人工智能?!痹惚硎?#xff0c;未來(lái)通用人工智能和超級智能的倫理安全問(wèn)題,要從現在就開(kāi)始關(guān)注和準備。 (經(jīng)濟日報記者 佘惠敏)
?
相關(guān)稿件