中國制定的管理辦法並非正式法律,只是公開給公眾進行評估。 這些辦法旨在“促進生成式人智能健康發展和規範應用。
根據制定者們的設想,神經網絡應反映社會主義的價值觀,並且只創造不會擾亂國家經濟和社會秩序的真實內容。
此類工具也不應生成與色情、暴力、恐怖主義、極端主義和仇外心理有關的內容。
生成式人工智能包括所有基於算法創建文本、圖像、聲音、視頻、代碼和其他內容的技術。
《意見稿》指出,國家支持人工智能技術自主研發和推廣應用,鼓勵安全可靠地使用人工智能技術所需的一切工具和數據資源。生成式人工智能的產品和服務必須尊重公共道德和普遍接受的原則。
亞太人工智能法制研究院院長、北京師範大學教授劉德良在接受衛星通訊社採訪時表示,網信辦提供的草案是初步的。政府機構需要對新技術和產品運行使用過程中可能存在的問題未雨綢繆。劉德良教授說:“目前人工智能技術主要涉及的主體是開發者、使用者,而使用者又包含個人以及《意見稿》中提到的服務提供者。國家網信辦作為互聯網意識形態的主管部門,需要對新技術和產品運行使用過程中可能存在的問題未雨綢繆,特別是在技術本身不夠成熟,和產品服務尚未在大陸地區應用的情況下。應該說從前瞻性角度制定相應法律法規,以保障互聯網信息內容的合法準確性,這一初衷無可厚非。比如《意見稿》第五點要求的合法性可能是針對產品的使用,第四點要求的準確性則針對產品的研發。”
例如,《意見稿》指出,使用生成式人工智能產品的組織和個人應對其創建的內容負責。同時所有借助生成式 人工智能 生成的內容都必須進行標記。
還規定生成式 人工智能的開發人員對預訓練所基於的數據源的有效性負責。首先,它們必須符合《中華人民共和國網絡安全法》的要求,並且不侵犯知識產權。所有個人信息均在其版權所有者的許可下獲得。
在提供服務的過程中,應要求開發者保護所有用戶提供的信息。
對於那些使用該技術傷害用戶的人,應立即限制其提供服務。
在文件的最後,建議所描述的規則於今年生效。不過在劉德良教授看來,實踐中可能會出現一些問題。例如,有可能會影響到想要在中國市場運作的外國產品。劉德良專家解釋說:
“在實際操作層面,我個人認為可能會存在一些問題。比如近來備受關注的ChatGPT就是利用從互聯網獲取的海量訓練數據開展深度學習。這些數據本身的合法性和準確性就難以界定。同時谷歌、微軟等外國公司在研發技術產品時,也並不會考慮和遵循中國的法律規定。這就導致後續中國的服務提供者在接入外國公司技術時,難以在本國法規的框架下進行實際操作。若要求對方專門研發適用中國大陸的算法模型,成本恐怕又是巨大的。在這種情況下,我們可能會難以學習和使用別人的先進技術,反過來這又會限制自身技術的進步。”
此外大量使用生成式人工智能技術,尤其是在初始階段,將充滿風險。例如,使用生成聊天機器人創建的虛假信息的數量可能會在互聯網上猛增。劉德良教授說:“對於新技術可能帶來的隱患,我認為我們可能更多的是擔心具有輿論動員功能、對社會會造成危害的行為,比如將不實信息發佈在大型論壇等。從這一角度來看,我們應該規範的是服務提供者和利益獲得者的行為,尤其是在輿論問題上加強監管力度。實際上目前現行的法律基本上都能夠涵蓋問題,總體上不大有必要對每一種技術都分別進行規範。”
《意見稿》出台之際,中國互聯網公司百度在 3 月份推出了一款名為 ERNIE Bot 的人工智能聊天機器人。Ernie Bot 執行數學計算、生成文本、回答問題、在 Internet 上搜索信息,還可以創建圖像、甚至短視頻。