【環(huán)球時(shí)報綜合報道】4月11日,中國國家互聯(lián)網(wǎng)信息辦公室發(fā)布《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》(簡(jiǎn)稱(chēng)《征求意見(jiàn)稿》),該辦法是國內生成式人工智能(AI)領(lǐng)域的首份監管文件。同一天,美國也傳來(lái)考慮出臺措施監管人工智能的消息。據《華爾街日報》11日報道,美國商務(wù)部周二就人工智能問(wèn)責措施正式公開(kāi)征求意見(jiàn),包括有潛在風(fēng)險的新人工智能模型在發(fā)布前是否應該通過(guò)認證程序。此外,英國、意大利、加拿大等國也先后宣布收緊人工智能的監管政策。
關(guān)上“潘多拉魔盒”?
《征求意見(jiàn)稿》共包含21條舉措,強調了安全評估和算法備案的前提性和必要性?!墩髑笠庖?jiàn)稿》明確指出,辦法中所稱(chēng)生成式人工智能,是指基于算法、模型、規則生成文本、圖片、聲音、視頻、代碼等內容的技術(shù),并對生成式人工智能服務(wù)提出了多方面要求,包括“提供生成式人工智能產(chǎn)品或服務(wù)應當遵守法律法規的要求”“提供者應當對生成式人工智能產(chǎn)品的預訓練數據、優(yōu)化訓練數據來(lái)源的合法性負責”“要求用戶(hù)提供真實(shí)身份信息”等。
多位專(zhuān)家在12日接受《環(huán)球時(shí)報》記者采訪(fǎng)時(shí)都表示,《征求意見(jiàn)稿》的發(fā)布,主要是明確了生成式人工智能先規范再發(fā)展的總基調,目的是完善生成式人工智能的應用環(huán)境,為生成式AI在國內應用創(chuàng )造條件。
近段時(shí)間,生成式人工智能技術(shù)掀起新一輪生產(chǎn)力革新的科技浪潮,全球各大科技公司爭相搶灘布局。然而,人工智能熱度蔓延的同時(shí),由其產(chǎn)生的概念亂象及安全問(wèn)題也引發(fā)諸多擔憂(yōu)。
美國法學(xué)教授特利4月3日在《今日美國》發(fā)文稱(chēng),自己收到一封郵件,被告知有人在測試生成式人工智能時(shí)發(fā)現他莫名出現在了該工具給出的性騷擾學(xué)生者名單中;路透社5日報道稱(chēng),澳大利亞赫本郡郡長(cháng)胡德被生成式人工智能誤列為澳大利亞儲備銀行子公司一樁外國賄賂丑聞的“犯案者”……許多人表示,人工智能打開(kāi)了“潘多拉魔盒”,呼吁政府出臺監管措施。
除了中國、美國外,英國、意大利、加拿大、法國、西班牙等國家也都開(kāi)始行動(dòng)起來(lái)。據英國《金融時(shí)報》報道,英國政府于3月發(fā)布了第一份人工智能白皮書(shū),概述了人工智能治理的5項原則。此外,據路透社報道,3月底,意大利政府宣布禁止使用一款人工智能聊天機器人,并限制相關(guān)公司處理意大利用戶(hù)信息數據,同時(shí)對其隱私安全問(wèn)題立案調查。加拿大廣播公司4月4日報道稱(chēng),加拿大聯(lián)邦隱私監管機構宣布,已對美國人工智能研究公司OpenAI展開(kāi)調查,因該公司涉嫌“未經(jīng)同意收集、使用和披露個(gè)人信息”。
與多國紛紛出手加強AI監管形成對比的是,印度暫時(shí)沒(méi)有計劃監管人工智能的使用和發(fā)展。據美國??怂剐侣劸W(wǎng)報道,印度電子和信息技術(shù)部上周發(fā)布一份聲明,詳細闡述了印度對人工智能發(fā)展及安全方面的立場(chǎng),表示相信人工智能會(huì )拉動(dòng)印度商業(yè)的增長(cháng),政府正在政策和基礎設施方面采取一切必要措施,以發(fā)展該國的人工智能行業(yè)。
科技巨頭也在商討AI開(kāi)發(fā)使用標準
通常情況下,政府收緊監管意味著(zhù)大型科技企業(yè)自由發(fā)展的空間和力量被遏制,會(huì )招致行業(yè)的反對,然而這一次,許多科技公司卻發(fā)聲呼吁政府制定監管規定,甚至在一些企業(yè)內部,限制使用人工智能的規定已經(jīng)實(shí)施。
據韓國《國民日報》報道,包括三星、SK海力士在內的多家韓企正在采取限制使用相關(guān)人工智能工具的措施,嚴防員工泄密。LG電子公司也要求員工進(jìn)行“人工智能及數據使用”方面的培訓。在日本,出于對信息泄露的擔憂(yōu),包括軟銀、日立、富士通和三井住友銀行在內的日本公司已開(kāi)始限制在業(yè)務(wù)運營(yíng)中使用交互式人工智能服務(wù)。
一些人工智能企業(yè)也主動(dòng)尋求制定新的監管規定。據《華爾街日報》11日報道,“我們認為,強大的人工智能系統應該接受?chē)栏竦陌踩u估”,OpenAI在最近的一篇文章中表示:“需要監管來(lái)確保安全評估得到采用,我們積極與各國政府接觸,探討可能采取的最佳監管形式?!?/p>
美國??怂剐侣劸W(wǎng)報道稱(chēng),12日,微軟、谷歌、蘋(píng)果、英偉達等人工智能開(kāi)發(fā)領(lǐng)域的頭部企業(yè)將商議制定AI技術(shù)開(kāi)發(fā)使用標準,討論如何以最負責任的態(tài)度繼續開(kāi)發(fā)人工智能。
“要在發(fā)展與安全之間找到平衡點(diǎn)”
其實(shí),人工智能監管的“火苗”并不是最近才被點(diǎn)燃。早在2021年4月,歐盟委員會(huì )就提出了《人工智能法案》條例草案,這被視為歐盟在人工智能以及更廣泛的歐盟數字戰略領(lǐng)域的里程碑事件。只不過(guò)提案的推進(jìn)并沒(méi)有想象中順利,歐洲議會(huì )議員們尚未就提案基本原則達成一致。
美國國家標準與技術(shù)研究院也于今年1月發(fā)布了《人工智能風(fēng)險管理框架》(AI RMF)1.0版,旨在指導機構組織在開(kāi)發(fā)和部署人工智能系統時(shí)降低安全風(fēng)險,避免產(chǎn)生偏見(jiàn)和其他負面后果,提高人工智能可信度。
清華大學(xué)新聞與傳播學(xué)院教授、清華大學(xué)元宇宙文化實(shí)驗室主任沈陽(yáng)12日接受《環(huán)球時(shí)報》記者采訪(fǎng)時(shí)表示,各國都高度重視人工智能的監管問(wèn)題,因為人工智能技術(shù)存在著(zhù)較大的不確定性和不可控性。目前有必要將人工智能的行業(yè)發(fā)展引導到安全的、正確的道路上,防止重大黑天鵝事件出現,造成不可挽回的損失。
對于未來(lái)人工智能方面的監管前景,浙江大學(xué)國際聯(lián)合商學(xué)院數字經(jīng)濟與金融創(chuàng )新研究中心聯(lián)席主任、研究員盤(pán)和林告訴《環(huán)球時(shí)報》記者,在立法方面,中國目前走在前列,《征求意見(jiàn)稿》內容還將在實(shí)踐過(guò)程中繼續完善。他同時(shí)也表示,未來(lái)監管要在生成式AI發(fā)展和安全有序推進(jìn)之間找到平衡點(diǎn),一是要給予人工智能生成內容適當包容;二是繼續細化規則,這會(huì )讓企業(yè)行為的確定性大大增強,更有利于生成式AI產(chǎn)業(yè)的發(fā)展。
相關(guān)稿件