研究結果發表在《全球事務中的俄羅斯》(Russia in Global Affairs)雜誌上。
惡意使用人工智能的危險
來自不同國家的研究人員正在積極研究惡意使用人工智能對整個社會和人類活動的個別領域所構成的威脅,包括政治、經濟、軍事等領域。然而,對國際信息和心理安全構成的威脅尚未被拿來單獨研究。同時,利用人工智能通過有針對性地對人進行高科技信息和心理影響來破壞國際關係的穩定顯然十分危險。
該研究的作者基於地域覆蓋範圍、速度和傳播形式等一系列標準對惡意使用人工智能構成的威脅進行了分類,這將有助於找到對抗和開發回應工具的方法。
俄羅斯國民經濟與國家行政學院國際安全與外交政策教研室教授達里婭·巴扎爾金娜向俄羅斯衛星通訊社表示:“未來人工智能技術成本的降低可能會催生全新的恐怖主義威脅。對基本上新的恐怖主義行為構成威脅。不排除使用聊天機器人來構建虛假活動信息並說服潛在受害者參加。為了對抗,建議讓公眾熟悉新的威脅,指導公民警惕與不熟悉的人進行遠程接觸。對公共事件信息發佈真實性進行認證是一個可能的出路。當然,在這種情況下,技術專家的任務將是保護活動數據庫及其認證機制。”
人工智能的現代技術和能力水平使我們能夠劃分出對人的信息和心理安全構成的一系列全新威脅。
使用“假人”和“深度偽造”(deepfake) 技術進行國際挑釁
俄羅斯外交部外交學院國際熱點問題研究所主任研究員、莫斯科國立大學教授葉夫根尼·帕申採夫向俄羅斯衛星通訊社表示:“ ‘深度偽造’技術可以合成一個人的形象和聲音。它已經開始用於製作各國領導人的視頻圖像,包括美國總統唐納德·特朗普和俄羅斯總統弗拉基米爾·普京的圖像。‘深度偽造’視頻能夠操縱大型目標群體的行為,並可用於信息和心理對抗,以引發金融恐慌或戰爭。”
基調分析是計算語言學中的一類內容分析方法,用於自動識別文本中的情感色彩詞彙和作者情感評價。基調分析由廣泛的來源保障,例如博客、文章、論壇、民意調查等。這可能是非常有效的信息心理對抗工具。例如,現在美國特種作戰司令部領導對類似成果的濃厚興趣就證實了這一點。
“預測性武器”:根據社交網絡數據預測人們的行為
2012年,美國高級情報研究計劃署(IARPA)啓動了“基於早期使用代用品模型的事件識別”(EMBERS)計劃,旨在基於人工智能的使用來預測民事騷亂,確定日期、地點和抗議群體。
該系統處理來自媒體和社交網絡的數據,以及更高質量的信息源,如經濟指標。當然,將此類程序交到恐怖分子手中也是非常危險的。在這種情況下,恐怖分子就可能在大型社會活動中製造恐怖襲擊。
選擇恐怖襲擊目標的另一個標準可能是某些地區的社會和心理緊張程度。
該研究的作者認為,作為對策,國家和超國家機構可將預測分析用於防止社會緊張(及時採取旨在實現長期穩定的社會、經濟和政治措施)。
此外,恐怖主義團體可以通過在政治運動期間使用機器人來損害他人聲譽、吸引新的支持者或組織殺害政客。
無人機和機器人化基礎設施的捕獲
商業系統可用於部署無人駕駛飛行器或自動駕駛車輛,以運送爆炸物和製造事故。一系列重大災害能夠引起國際媒體轟動,對心理安全造成重大損害。
俄羅斯國民經濟與國家行政學院和俄羅斯外交部外交學院的研究人員將系統性分析人工智能在安全領域的作用、情景分析方法、歷史類比和案例分析作為研究基礎。該研究的作者與烏普薩拉大學(瑞典)的格雷格·西蒙斯合作撰寫了即將出版的《信息和心理對抗中的恐怖主義和先進技術:新風險、應對恐怖主義威脅的新機遇》,有來自11個國家的研究人員參與編寫。
在俄羅斯研究人員的倡議下,人工智能在國際信息和心理安全受到威脅背景下的作用問題正在積極討論中,並將在國際會議和國際自主研究研討會上進行討論。其中包括在俄羅斯聯合國教科文組織全國委員會以及多個俄羅斯和國際機構支持下於6月9日至12日在漢特-曼西斯克舉行的會議。漢特-曼西斯克自治區區長納塔利婭·科馬羅娃積極參與了歐洲-俄羅斯通信管理專家網絡支持舉辦的惡意使用人工智能問題會議。之後還有將於2019年10月1日至3日在聖彼得堡舉行第四屆伊比利亞美洲論壇、2019年10月31日至11月1日的歐洲人工智能和機器人技術會議。該研究的作者曾在阿根廷、烏拉圭、巴西、南非和意大利做過科學報告。
俄羅斯國民經濟與國家行政學院和俄羅斯外交部外交學院的專家認為,以俄羅斯的規模形成長期專項計劃極為重要,因為人工智能和國際信息心理安全問題是不久的將來就要面對的問題。