近日,人工智能領域的主流企業-英國DeepMind公司宣佈,他們不知道如何使人工智能和神經網絡的行為不那麼令人反感。人工智能系統創造者越來越經常遭遇的問題是,此類系統本身並不明白,甚麼是不知深淺、種族和性別歧視。
如果讓OpenAI GPT-3原創文本系統去研究網絡論壇中的文件,那麼它將吸收所有最矛盾和最負面的內容。甚至,即使人對文本進行了初步處理,對系統來說也無濟於事。
更令人苦惱的是,世界頂級人工智能培訓公司之一的DeepMind公司,從2016年開始已在試圖解決這個問題,但迄今為止還沒能找到答案。難道,我們的未來智能機器人將粗俗無比?就像科幻作品《飛出個未來》中的機器人班德,即無禮又酗酒。
人工智能為何如此恨我們?
近年來,類似OpenAI GPT-3公司的情況有很多。應邀幫助人工智能警察的PredPol公司,常常建議向黑人居民居多的地區派出警隊。幾年中,類似的軟件一直在幫助亞馬遜人力資源部門招聘人才,但常常拒接接受女性。COMPAS系統可對罪犯中的潛在累犯進行評估,該系統總是傾向於黑人。但底特律警局局長指出,此類算法95%情況下無法區分黑人面孔,從而導致出現誤捕。值得一提的是,谷歌圖像識別軟件最近將幾張面孔標記為“大猩猩”。
北京師範大學-香港浸會大學聯合國際學院許粲昊教授指出,機器是沒有偏見的,畢竟,技術偏見的背後,是主導培訓的公司。
他說:“人工智能機器學習的來源是輸入數據,其學習的結果好壞根本在於訓練輸入的數據如何,其學習文本的輸出與輸入數據的三觀是匹配的。好比小孩的教育,能夠成為好人還是壞人,全看教導的人教的怎樣。”
比如,亞馬遜人力資源部門,他們依據是相當簡單的事實:IT領域90%的員工是男性,因此,認為女性不適合此項工作。沒人去維權或關注輸入數據的初始偏差,因為IT領域的人員數量甚至更少。同時要知道,美國黑人 IT 專家。
許粲昊教授在接受衛星通訊社採訪時指出:“毫無疑問,這應該不僅僅是現在的一個問題,過去也一直存在。我們經常可以看到報道,很多人工智能的訓練都是基於西方的研究,意識形態會更加偏向白人,這種情況下訓練出來的結果可能也會有一些人種傾向,包括價值觀等。而社會中人們做出的一些決策和分析、生成的文本,甚至包括媒體的文章,可能很多都是基於人工智能的工作,所以人工智能確實會影響當前世界的發展。”
誰之錯,怎麼辦?
聯合國教科文組織網站上公佈了蒙特利爾大學倫理學和政治哲學Marc-Antoine Dilak教授的採訪錄。他認為,“人工智能系統和種族與社會分工方法,或導致濫用,對此應該進行管理。”
Dilak認為:“軟件程序錯誤率只有20%。但使用這項技術,不僅會歧視人,而且還會侵犯其不透露個人生活細節的權利。”
Dilak指出,此類案例表明:“有必要將人工智能領域研究納入倫理範疇。”
許粲昊教授強調:“誰應該為人工智能系統的爭議行為負責?首先是誰在選擇篩選和輸入數據,其次學習模型是誰創建和訓練的,我認為這是兩個基本問題。好比小孩的教育好壞取決於教導他的人。如果人工智能的文本輸出具有爭議性,那麼它的訓練數據和模型設計無疑是存在問題的。”
中國的經驗
中國對此問題極為關注。近年來,政府在科技巨頭百度、阿里巴巴、騰訊和華為的支持下,積極參與人工智能公民標準的創建。在國際標準化組織框架下,中國政府秉承的立場是,應為人工智能技術制定法律,確定倫理規範。
2018年,發佈了《人工智能標準化白皮書》,並於 2021 年對其進行了更新。
同年5月,百度發表《AI倫理四原則》。公司在文件中指出,隨著技術的快速發展和人工智能產品的不斷使用,人們感覺到的變化是,人工智能正進入其生活。因此需要新的規則、新的價值觀和新的倫理。9月份,騰訊和中國信息通信研究院也發佈類似報告。2019年發佈了《人工智能安全標準化白皮書》,2020年,《兒童人工智能交互北京共識》出版。
許粲昊教授指出:“如果沒有政府監管,那麼該由誰來管理算法、誰去管理訓練的數據集、誰去管理人工智能?難道是科技公司的工程師或技術工人員,還是公司的高管?若是他們在訓練數據集和算法中插入的內容監管部門不得而知,將有可能導致一些非常危險的後果,整個人工智能將處在失控或者由少數人控制的狀態。這顯然不是人類社會發展所希望出現的情況,所以干預是必然的,而且關鍵是誰在干預的問題。”
據《白皮書》分析,到2023年,中國人工智能市場將達到979億美元。國內的AI產業發展迅猛:如果說,該領域的世界市場平均年增長26.2%,那麼中國的指數高達44.5%。此外,中國在人工智能領域的專利數量居世界第一。中國憑借如此大規模的參與度,將在未來塑造人工智能倫理格局方面發揮巨大作用。