新聞中心
公司新聞
行業動態
國外生活
異域風情
政策指南

動動嘴就能控制機器人!MIT新研究讓機器人理解語境更懂你的話

時間:2017-08-31 來源:36氪

科幻電影裏的機器人早就能和人類無障礙溝通了,但在現實生活中,機器人理解自然語言的能力還非常差,稍微複雜一點的指令,就會讓它們不知所措。

比如說:把我剛才放下的箱子拿起來。

讓機器人明白這樣的指令,是MIT計算機科學和人工智能實驗室(CSAIL)最近才取得的突破。

MIT CSAIL设计出了一种方法,让机器人可以理解并响应以清晰明了的语言发出的语音指令。这个系统已经先进到可以理解涉及语境的指令,例如参考之前的命令和对象。

由CSAIL研究員開發的ComText(“語境中的指令”的縮寫)系統提供了“類似Alexa”的機器人語音控制功能。這樣的機器人可以理解語境,包括此前的指令,以及與之互動的對象和周圍環境。

這意味著,用戶可以像與他人互動一樣與機器人互動。此前,與機器人的互動是個巨大的挑戰,阻礙了機器人在商業場景和一般消費級場景中的應用。即使是在産業界,如果機器人可以理解自然語言語音指令,那麽就可以更好地與人類合作。

通過對某些對象的理解,ComText可以用在工作中。例如,你可以告訴它,“我拿著的這個工具是我的工具”。未來,當你對它說“把我的工具拿給我”時,它就會找到正確的工具。

动动嘴就能控制机器人!MIT新研究让机器人理解语境更懂你的话

如上圖所示,告訴機器人“我剛才放在桌子上的盒子是我的”,然後對它說“拿起我的盒子”,它就能正確理解。

研究人员使用Baxter模型对ComText系统进行了检验。Baxter是Rethink Robotics开发的双臂人形机器人。

ComText在實現過程中采用了不同類型的記憶方式,包括用于一般信息的語義記憶,以及與特定事件關聯在一起的情景記憶。

动动嘴就能控制机器人!MIT新研究让机器人理解语境更懂你的话

在測試過程中,機器人能在約90%的情況下對語音指令做出正確反應。研究團隊希望通過更複雜的輸入信息,包括多步指令,以及深化機器人對上下文信息的理解,提高正確響應的水平。

这项研究相关的论文Temporal Grounding Graphs for Language Understanding with Accrued Visual-Linguistic Context发表在刚刚结束的学术会议IJCAI 17上,作者包括MIT的Rohan Paul、Andrei Barbu、Sue Felshin、Boris Katz和Nicholas Roy。

地址:http://static.ijcai.org/proceedings-2017/0629.pdf

轉載36氪:http://36kr.com/p/5090803.html