誰之錯:人工智能的種族主義與偏執性

CC0 / / Технологии
Технологии - 俄羅斯衛星通訊社, 1920, 24.09.2021
關注
日常交往,同事不知分寸,知名人士的醜聞發言,以及政治家們的含有種族主義內容的評論。凡此種種,現代社會已習以為常,並有成熟的應對方式。然而,如果人工智能忘乎所以,舉止不雅,這些問題該如何解決呢?更為主要的是,它們是從哪裡學到這些的呢?

近日,人工智能領域的主流企業-英國DeepMind公司宣佈,他們不知道如何使人工智能和神經網絡的行為不那麼令人反感。人工智能系統創造者越來越經常遭遇的問題是,此類系統本身並不明白,甚麼是不知深淺、種族和性別歧視。

如果讓OpenAI GPT-3原創文本系統去研究網絡論壇中的文件,那麼它將吸收所有最矛盾和最負面的內容。甚至,即使人對文本進行了初步處理,對系統來說也無濟於事

更令人苦惱的是,世界頂級人工智能培訓公司之一的DeepMind公司,從2016年開始已在試圖解決這個問題,但迄今為止還沒能找到答案。難道,我們的未來智能機器人將粗俗無比?就像科幻作品《飛出個未來》中的機器人班德,即無禮又酗酒。

人工智能為何如此恨我們?

近年來,類似OpenAI GPT-3公司的情況有很多。應邀幫助人工智能警察的PredPol公司,常常建議向黑人居民居多的地區派出警隊。幾年中,類似的軟件一直在幫助亞馬遜人力資源部門招聘人才,但常常拒接接受女性。COMPAS系統可對罪犯中的潛在累犯進行評估,該系統總是傾向於黑人。但底特律警局局長指出,此類算法95%情況下無法區分黑人面孔,從而導致出現誤捕。值得一提的是,谷歌圖像識別軟件最近將幾張面孔標記為“大猩猩”。

A coronavirus disease (COVID-19) patient receives a chest x-ray in the ICU at SSM Health St. Anthony Hospital in Oklahoma City, Oklahoma, U.S. - 俄羅斯衛星通訊社, 1920, 24.09.2021
中國科學家將美國新冠疫情爆發的開始日期“提前”
幾乎所有人都遭遇過人工智能不完善的問題。比如社交軟件Tinder,在給用戶設置吸引力指數,以此為基礎去尋找潛在的候選人。通常認為,軟件具有隨機性。但是,算法計算出收入水平,進入個人空間,在其它社交網絡中尋找用戶信息。確定智能水平後,研究用戶在通訊中的語言習慣。最終,如果男性收入高,有良好的教育,那麼算法將提高其受歡迎指數。但受過良好教育和收入不錯的女性則給出相反的評估。法國女記者在其《算法之愛》一書中對此有過介紹。

北京師範大學-香港浸會大學聯合國際學院許粲昊教授指出,機器是沒有偏見的,畢竟,技術偏見的背後,是主導培訓的公司。

他說:“人工智能機器學習的來源是輸入數據,其學習的結果好壞根本在於訓練輸入的數據如何,其學習文本的輸出與輸入數據的三觀是匹配的。好比小孩的教育,能夠成為好人還是壞人,全看教導的人教的怎樣。”

比如,亞馬遜人力資源部門,他們依據是相當簡單的事實:IT領域90%的員工是男性,因此,認為女性不適合此項工作。沒人去維權或關注輸入數據的初始偏差,因為IT領域的人員數量甚至更少。同時要知道,美國黑人 IT 專家。

許粲昊教授在接受衛星通訊社採訪時指出:“毫無疑問,這應該不僅僅是現在的一個問題,過去也一直存在。我們經常可以看到報道,很多人工智能的訓練都是基於西方的研究,意識形態會更加偏向白人,這種情況下訓練出來的結果可能也會有一些人種傾向,包括價值觀等。而社會中人們做出的一些決策和分析、生成的文本,甚至包括媒體的文章,可能很多都是基於人工智能的工作,所以人工智能確實會影響當前世界的發展。”

誰之錯,怎麼辦?

聯合國教科文組織網站上公佈了蒙特利爾大學倫理學和政治哲學Marc-Antoine Dilak教授的採訪錄。他認為,“人工智能系統和種族與社會分工方法,或導致濫用,對此應該進行管理。”

Посетители на международной конференции по искусственному интеллекту. Шанхай - 俄羅斯衛星通訊社, 1920, 04.09.2021
誰應對人工智能負責?美國和中國經驗
例如,Dilak 引用了美國斯坦福大學Michal Kosinski 和 Yilun Wang 的研究成果。為了引起大家對人工智能倫理問題的關注,兩位學者於2017年創建了一款程序,可通過照片確定人們的性取向。

Dilak認為:“軟件程序錯誤率只有20%。但使用這項技術,不僅會歧視人,而且還會侵犯其不透露個人生活細節的權利。”

Dilak指出,此類案例表明:“有必要將人工智能領域研究納入倫理範疇。”

許粲昊教授強調:“誰應該為人工智能系統的爭議行為負責?首先是誰在選擇篩選和輸入數據,其次學習模型是誰創建和訓練的,我認為這是兩個基本問題。好比小孩的教育好壞取決於教導他的人。如果人工智能的文本輸出具有爭議性,那麼它的訓練數據和模型設計無疑是存在問題的。”

中國的經驗

中國對此問題極為關注。近年來,政府在科技巨頭百度、阿里巴巴、騰訊和華為的支持下,積極參與人工智能公民標準的創建。在國際標準化組織框架下,中國政府秉承的立場是,應為人工智能技術制定法律,確定倫理規範。

Искусственный интеллект поможет выявить будущих олимпийцев среди школьников - 俄羅斯衛星通訊社, 1920, 10.09.2021
俄羅斯媒體:人工智能有助於在中小學生中發現未來的奧運選手
2017年7月20日,中國國務院公佈了《新一代人工智能發展規劃》,提出到2020年、2025年和2030年人工智能階段性發展目標。文件制定者們強調,“人工智能發展的不確定性,將帶來新的問題。”

2018年,發佈了《人工智能標準化白皮書》,並於 2021 年對其進行了更新

同年5月,百度發表《AI倫理四原則》。公司在文件中指出,隨著技術的快速發展和人工智能產品的不斷使用,人們感覺到的變化是,人工智能正進入其生活。因此需要新的規則、新的價值觀和新的倫理。9月份,騰訊和中國信息通信研究院也發佈類似報告。2019年發佈了《人工智能安全標準化白皮書》,2020年,《兒童人工智能交互北京共識》出版

許粲昊教授指出:“如果沒有政府監管,那麼該由誰來管理算法、誰去管理訓練的數據集、誰去管理人工智能?難道是科技公司的工程師或技術工人員,還是公司的高管?若是他們在訓練數據集和算法中插入的內容監管部門不得而知,將有可能導致一些非常危險的後果,整個人工智能將處在失控或者由少數人控制的狀態。這顯然不是人類社會發展所希望出現的情況,所以干預是必然的,而且關鍵是誰在干預的問題。”

據《白皮書》分析,到2023年,中國人工智能市場將達到979億美元。國內的AI產業發展迅猛:如果說,該領域的世界市場平均年增長26.2%,那麼中國的指數高達44.5%。此外,中國在人工智能領域的專利數量居世界第一。中國憑借如此大規模的參與度,將在未來塑造人工智能倫理格局方面發揮巨大作用。

新聞時間線
0