專家:中國對生成式人工智能的監管將為全球提供經驗
關注
獨家
8月15日,中國國家互聯網信息辦公室等七部門聯合發佈的《生成式人工智能服務管理暫行辦法》正式施行。北京師範大學—香港浸會大學聯合國際學院教授許粲昊8月16日在接受衛星通訊社採訪時表示,生成式人工智能在短時間內得到廣泛應用的同時,也引發了一系列倫理道德和“黑箱”問題。因此,中國對生成式人工智能的監管無疑能夠為全球提供經驗。
生成式人工智能是一種基於深度學習技術的人工智能模型,能夠模擬人類思維,生成具有一定邏輯性和連貫性的語言文本、圖像、音頻等內容。此次開始實施的文件明確中國鼓勵生成式人工智能的創新發展。文件稱:“國家堅持發展和安全並重、促進創新和依法治理相結合的原則,採取有效措施鼓勵生成式人工智能創新發展,對生成式人工智能服務實行包容審慎和分類分級監管。”
與傳統的AI系統不同,生成式AI系統能夠自己創造出新的內容,而不是只能根據輸入數據進行處理。這一技術在掀起了生成式人工智能產業的熱潮,但全球在對其治理規劃方面卻面臨問題。
談及生成式人工智能產業存在的問題,許粲昊說:”隨著生成式人工智能短時間內在多領域得到廣泛應用,該技術引發了一系列倫理道德和‘黑箱’問題,全世界都面臨亟待規範的問題。 比如‘黑箱’問題,當用AI生成的文字或圖片內容再進行模型訓練時,我們很難確定會生成怎樣的結果,或者有些偽造的生成結果會對真實世界產生嚴重影響。換言之,雖然生成式人工智能能夠帶來更高的創造力,但其生成虛假視頻、虛假圖片甚至虛假新聞的案例屢見不鮮。 並且普通人是難以辨別這些虛假結果的。所謂魔高一尺道高一丈,即使針對虛假結果發明識別功能,不排除後續生成式人工智能模型可能又會創造出更加難以辨別的虛假內容。因此針對這些嚴重問題,我們需要出台相應的監管措施。”
對於日常普通用戶來說,目前生成式人工智能生成的圖片、文字、語音視頻等內容,都已經達到以假亂真的程度。許粲昊指出:”從實際層面來看,普通用戶很難判斷真假。這也是為何需要立法要求做出明確標注的原因。 “
在評論有關《辦法》對生成式人工智能服務提供者的約束效果和影響時,許粲昊教授表示,目前對技術應用的最大約束確實來自法律層面。比如要求生成式人工智能服務提供者明確說明圖片內容由生成式人工智能生成,而非人類創造,否則需要承擔法律責任。
他說:“我認為這是非常關鍵的一個內容。比如專業的機構用戶(新聞工作者等)或創造者(藝術家或漫畫工作者等)在使用生成式人工智能時,如何規範版權問題、如何利用技術進行創造,可能都是需要更多考慮的問題。從技術創新的角度來看,目前技術端實際上已經分化成兩部分,一部分是明面上受到各種約束和監管的生成式人工智能,另一部分則是地下的灰色產業鏈。後者通常做出一些不受道德法律約束的生成式人工智能,由於徹底剝掉人類訓練人工智能模式的枷鎖,這些行為實際上更加危險,可能會造成嚴重後果。對此我認為有必要保持警惕和高度關注。”
目前在全球範圍內,意大利、德國、法國、西班牙等多個國家的監管部門對人工智能表達擔憂或發起調查。 中國政府此次發佈的文件強調,提供和使用生成式人工智能服務,應當遵守法律、行政法規,尊重社會公德和倫理道德。
許粲昊就此表示,中國發佈《生成式人工智能服務管理暫行辦法》,無疑能夠為全球生成式人工智能的發展提供經驗,因為目前全球範圍在該問題上都較為缺乏經驗。
他說:“我們可以看到,生成式人工智能的快速發展到目前為止僅有半年多的時間。不可否認這項技術給我們帶來了很多創意,但同時也帶來諸多挑戰。而且我們現在並沒有任何先進的監管經驗,在這種情況下,需要全球一起去思考如何管理整個產業鏈的問題。”
據此前報道,由中國國家互聯網信息辦公室等七部門聯合發佈的《生成式人工智能服務管理暫行辦法》於8月15日正式施行,這是中國首個針對生成式人工智能產業的規範性政策。作為中國促進生成式人工智能發展和規範應用的專門立法,《辦法》界定了該技術的基本概念,規定了對服務提供者的制度要求,為未來行業健康發展指明瞭方向。