8月22日,在2024世界機器人大會期間,北京具身智能機器人創(chuàng)新中心首發(fā)了具身智能服務機器人“天軼”。值得關注的是,“天軼”搭載了具身智能情感大模型,其中的情感模型源于北京大學計算機學院情感與認知智能機器人實驗室主任王韜研究員帶隊研發(fā)的情感與認知技術,也就是說,“天軼”可以對人類情感進行反應。

 

據了解,人形機器人是具身智能機器人的一種。未來是否能將情感模塊賦予更多人形機器人?一旦人形機器人擁有了與人類相似的情感,是否需要探討其倫理邊界?針對這些問題,新京報記者對王韜進行了專訪。


北京大學計算機學院情感與認知智能機器人實驗室主任王韜。受訪者供圖


通過建模驅動機器人“學習”情感

 

新京報:“天軼”機器人搭載了具身智能情感大模型,這讓機器人實現(xiàn)了什么功能?

 

王韜:北京大學計算機學院情感與認知智能實驗室成立于2017年,一直研究如何讓機器人更具有情感能力、交互能力,讓它通過認知環(huán)境,更重要的是認知人,成為跟人打交道的機器人。以后的人形機器人不僅是在工廠“上班”,更多的應該是和人打交道。

 

因此,這種類型的機器人一定要能讀懂人的心理或者心情,讀懂人的喜怒哀樂,還要能感知人們更加細微和豐富的情感與認知狀態(tài)。這是我們實驗室一直在研究的方向,我們稱其為情感計算,我們也陸續(xù)在一些國際優(yōu)秀會議和期刊上發(fā)表了相關文章,在智能機器人上實現(xiàn)了許多實際相關應用,也取得了國際上的一些關注與認可。

 

機器人的情感計算有很多重要應用場景。例如,搭載了情感計算模型的機器人如果陪伴我們去市場買菜,它可以捕捉到我們的表情和注意目標,分析出我們更喜歡哪種蔬菜;它也可以在家陪伴老人,如果發(fā)現(xiàn)老人悶悶不樂,它會做出一些正確的應對反應,排解老人不快的情緒。此外,還可以監(jiān)控人的心率變化等生理指標,可以用作某些特殊情景的判定,甚至還可以用作健康監(jiān)控。

 

今年6月起,我們與北京具身智能機器人創(chuàng)新中心合作,成立情感智能應用聯(lián)合實驗室,已使“天軼”具有情感交互能力,讓它能更好地服務人。

 

現(xiàn)在我們看到的大多是冷冰冰的機器人,未來我們希望不僅有“天軼”,還有更多的情感機器人,它們會像人一樣擁有比較細膩的情感識別與反應能力。

 

新京報:工業(yè)機器人需要不斷學習掌握各種工作技能,讓機器人擁有情感也需要學習嗎?

 

王韜:機器人一定要學習,但是這種學習跟我們現(xiàn)在看到的機器人學習抓取物品不太一樣,它需要特殊的學習方法,我們需要在機器人的“大腦”里建模,不能僅僅對機器人進行數(shù)據驅動,更好地建模,使其能夠更好地理解和學習是必要的。

 

機器人的情感訓練在這方面的問題更加突出,因為人的情感非常復雜,也不存在大規(guī)模的具有全面情感標注的數(shù)據集,所以我們才要不斷推進這一領域的研究。

 

對情感機器人來說,設計者的倫理道德十分重要

 

新京報:如果將人形機器人賦予情感功能的話,是否需要探討其倫理邊界?

 

王韜:首先,我們要明確情感分成三個方面,第一個是例如那些長得非常像人的機器人,它們是能夠表達情感的機器人,現(xiàn)在很多機器人在這方面做得很好;第二個是機器人對人的情感識別,它能知道“眼前”的人是什么情感,比如悲傷、生氣、高興、沮喪等;第三個是機器人的“情商”,比如說它識別出來這個人心情不好,那么它應該怎么應對才能讓這個人心情變好。

 

在上述三個方面中,機器人的情感識別和“情商”非常難,但是我們一直在研究這一領域,希望在今年年底或者明年年初能夠有所突破。

 

其次我們討論倫理邊界。當機器人能夠識別人類情感的時候,它可以做出自己的反應,比如發(fā)現(xiàn)一個人心情不好時,機器人是表現(xiàn)出關懷還是說教,或者其他的方式,這就涉及機器人設計者的倫理。

 

我一直認為,機器人的倫理不是機器人本身的倫理,而是設計者、數(shù)據工程師、設計架構人員等人的倫理。這跟我們教育孩子是一樣的,家長的思想、倫理影響孩子的成長。

 

對機器人來講,即使到了通用人工智能階段,設計者的倫理也很重要,對于情感機器人尤其重要,這體現(xiàn)了設計者的水平,也體現(xiàn)了設計者的倫理道德。

 

新京報:人類對于情感機器人是不是同樣需要倫理邊界?

 

王韜:這是相互的影響。情感機器人對人類的情感產生反應,這個時候我們就需要注意了,盡管情感機器人能夠讀懂人的情感并用情商進行反應,但就目前而言,機器人還不存在像人類一樣的“內心情感”。

 

所以我們需要關注一個問題——機器人的情感模型,尤其是神經網絡模型,往往并不完全清楚模型內部發(fā)生了什么,而更多是看到普通情況下模型對外的表現(xiàn)形式,那么機器人有沒有可能在模型內部產生一種不好的反應呢?這是需要我們特別關注的問題。這又回到了剛才的話題,也就是設計者的倫理和技術水平。所以至少從目前來看,設計者是非常重要的。

 

新京報:人形機器人對人工智能倫理會帶來哪些挑戰(zhàn)?如何應對?

 

王韜:人形機器人是人工智能的一個載體,人工智能的挑戰(zhàn)和倫理就是人形機器人的挑戰(zhàn)和倫理。當然,如果有一天人形機器人的外形真的與真人外形無限接近,甚至產生了混淆的時候,那么將會產生一些新的倫理挑戰(zhàn)。

 

若有志于機器人全面擬人化,研發(fā)人員仍需探索

 

新京報:在這次機器人大會上,我們看到很多以真人為原型的機器人。人形機器人需要逼真的擬人化嗎?

 

王韜:機器人可以分成兩類,第一類是不怎么和人打交道的機器人,例如工業(yè)機器人。從科技發(fā)展角度來講,工業(yè)機器人不一定都是人形機器人。第二類是與人打交道的機器人,我認為最好還是人形。

 

這其中有兩個原因,一方面是人類天然地對人形的產物溝通效率更高,另一方面,機器人要跟人一起生活或服務于人,并且要在人的環(huán)境中進行交互,如果它不太像人的話,可能很難適應這個環(huán)境。

 

對于是否需要逼真擬人化,人形機器人設計成什么樣的外貌,說到底還是設計者的問題。有位科學家提出了恐怖谷效應,提出機器人長到與人接近的時候,是很恐怖的,但是如果一旦突破了邊界,機器人將不再恐怖。從現(xiàn)階段以真人為原型的人形機器人的外觀來看,還沒有突破恐怖谷效應,所以有志于機器人全面擬人化的研發(fā)人員還需要不斷探索。就我個人而言,我還是喜歡長得像科幻電影或者動畫片里那些可愛機器人的樣子,事實上“天軼”機器人就沒有逼真擬人化。

 

新京報記者 吳婷婷

編輯 白爽 校對 楊許麗