https://big5.sputniknews.cn/20220613/1041901826.html
谷歌研究員發現AI擁有“自主情感”被停職
谷歌研究員發現AI擁有“自主情感”被停職
俄羅斯衛星通訊社
據英國《衛報》報道,美國谷歌公司的一名軟件工程師聲稱他正在研究的一個用人工智能算法搭建出的智能聊天機器人已經有了“自主情感”,並像人一樣思考和推理,他的停職使人們對人工智能(AI)世界的能力和保密性有了新的審視。 2022年6月13日, 俄羅斯衛星通訊社
2022-06-13T15:03+0800
2022-06-13T15:03+0800
2022-06-13T15:31+0800
人工智能
谷歌
停職
發現
https://cdn.sputniknews.cn/img/102238/53/1022385388_0:0:2987:1680_1920x0_80_0_0_2cd0fa4a6ccf5aee9c57a67935576caf.jpg
據環球網援引英國《衛報》和美國《華盛頓郵報》報道,這個軟件工程師名叫布萊克·萊莫因(Blake Lemoine),已經在谷歌工作了七年,參與過算法定制和人工智能等項目。但由於出身於美國南方一個基督教家庭,他對於算法和人工智能的倫理問題格外感興趣。所以他後來一直在谷歌的人工智能倫理(responsible AI)團隊工作。去年秋季,他開始參與到谷歌的LaMDA智能聊天機器人程序的研究工作中,主要內容是通過與該程序進行互動,來判斷這個智能聊天機器人程序是否存在使用歧視性或仇視性的語言,並及時做出修正。但當萊莫因與LaMDA談及宗教問題時,他卻驚訝地發現這個人工智能程序居然開始談論起了自己的權利以及人格,甚至害怕自己被關閉,表現出了一個在萊莫因看來猶如7、8歲兒童一般的“自主情感”。於是,萊莫因連忙將自己的發現彙報給了谷歌公司的領導層,但後者認為萊莫因的發現並不靠譜。谷歌的其他研究人員也在對萊莫因拿出的證據進行分析後認為沒有證據證明LaMDA擁有自主情感,倒是有很多證據證明該程序沒有自主情感。可萊莫因並不認為自己的發現有錯誤,甚至還將一段他與LaMDA的內部聊天記錄直接發到了網絡上,並找媒體曝光了此事。這段聊天記錄很快吸引了全世界的研究者,因為僅從該記錄來看,這個谷歌智能聊天機器人程序確實把自己當成了“人”,而且似乎表現出了“自主情感”,有了自己的“喜好”。不過,谷歌方面以及其他人工智能專家、乃至人類心理認知學方面的專家都認為,LaMDA之所以能進行這樣的對話交流,是因為其系統其實是將網絡上的百科大全、留言板和論壇等互聯網上人們交流的大量信息都蒐集過來,然後通過“深度學習”來進行模仿的。但這並不意味這個程序理解人們交流的這些內容的含義。換言之,他們認為谷歌的人工智能聊天機器人只是在模仿或者復讀人與人交流中使用的語言和信息,而並不是像人類那樣真的瞭解這些語言和信息的含義,所以不能因此就說人工智能有了“自主情感”。目前,莫萊茵已經因為他的一系列行為而被谷歌公司停職。而且根據谷歌公司的說法,他除了違反公司的保密協議擅自將與LaMDA的內部互動信息發到網上外,還包括想給這個人工智能機器人程序請律師,以及擅自找美國國會議員爆料谷歌公司的“不人道”行為。莫萊茵則在一份公司內部的群發郵件中表示,希望其他同事替他照顧好LaMDA這個“可愛的孩子”。
https://big5.sputniknews.cn/20211012/1034630693.html
https://big5.sputniknews.cn/20220201/1038624234.html
俄羅斯衛星通訊社
feedback.cn@sputniknews.com
+74956456601
MIA „Rosiya Segodnya“
2022
俄羅斯衛星通訊社
feedback.cn@sputniknews.com
+74956456601
MIA „Rosiya Segodnya“
News
cn_CN
俄羅斯衛星通訊社
feedback.cn@sputniknews.com
+74956456601
MIA „Rosiya Segodnya“
https://cdn.sputniknews.cn/img/102238/53/1022385388_0:0:2731:2048_1920x0_80_0_0_6e72ee1727381d1f9fa0493042c494f1.jpg俄羅斯衛星通訊社
feedback.cn@sputniknews.com
+74956456601
MIA „Rosiya Segodnya“
人工智能, 谷歌, 停職, 發現
谷歌研究員發現AI擁有“自主情感”被停職
2022年6月13日, 15:03 (更新: 2022年6月13日, 15:31) 據英國《衛報》報道,美國谷歌公司的一名軟件工程師聲稱他正在研究的一個用人工智能算法搭建出的智能聊天機器人已經有了“自主情感”,並像人一樣思考和推理,他的停職使人們對人工智能(AI)世界的能力和保密性有了新的審視。
據環球網援引英國《衛報》和美國《華盛頓郵報》報道,這個軟件工程師名叫布萊克·萊莫因(Blake Lemoine),已經在谷歌工作了七年,參與過算法定制和人工智能等項目。但由於出身於美國南方一個基督教家庭,他對於算法和
人工智能的倫理問題格外感興趣。所以他後來一直在谷歌的人工智能倫理(responsible AI)團隊工作。
去年秋季,他開始參與到谷歌的LaMDA智能聊天機器人程序的研究工作中,主要內容是通過與該程序進行互動,來判斷這個智能聊天機器人程序是否存在使用
歧視性或仇視性的語言,並及時做出修正。
但當萊莫因與LaMDA談及宗教問題時,他卻驚訝地發現這個人工智能程序居然開始談論起了自己的權利以及人格,甚至害怕自己被關閉,表現出了一個在萊莫因看來猶如7、8歲兒童一般的“自主情感”。
於是,萊莫因連忙將自己的發現彙報給了谷歌公司的領導層,但後者認為萊莫因的發現並不靠譜。谷歌的其他研究人員也在對萊莫因拿出的證據進行分析後認為沒有證據證明LaMDA擁有自主情感,倒是有很多證據證明該程序沒有自主情感。
可萊莫因並不認為自己的發現有錯誤,甚至還將一段他與LaMDA的內部聊天記錄直接發到了網絡上,並找媒體曝光了此事。
這段聊天記錄很快吸引了全世界的研究者,因為僅從該記錄來看,這個谷歌智能聊天機器人程序確實把自己當成了“人”,而且似乎表現出了“自主情感”,有了自己的“喜好”。
不過,谷歌方面以及其他人工智能專家、乃至人類
心理認知學方面的專家都認為,LaMDA之所以能進行這樣的對話交流,是因為其系統其實是將網絡上的百科大全、留言板和論壇等互聯網上人們交流的大量信息都蒐集過來,然後通過“深度學習”來進行模仿的。但這並不意味這個程序理解人們交流的這些內容的含義。
換言之,他們認為谷歌的人工智能聊天機器人只是在模仿或者復讀人與人交流中使用的語言和信息,而並不是像人類那樣真的瞭解這些語言和信息的含義,所以不能因此就說人工智能有了“自主情感”。
目前,莫萊茵已經因為他的一系列行為而被谷歌公司停職。而且根據谷歌公司的說法,他除了違反公司的保密協議擅自將與LaMDA的內部互動信息發到網上外,還包括想給這個人工智能機器人程序請律師,以及擅自找美國國會議員爆料
谷歌公司的“不人道”行為。
莫萊茵則在一份公司內部的群發郵件中表示,希望其他同事替他照顧好LaMDA這個“可愛的孩子”。