科技改變生活 · 科技引領未來
文章來源:知社學術圈
直立行走,將人雙手解放出來,既能使用工具勞動生產,又能抒發情感創造藝術,有詞為證:
持手相看淚眼,竟無語凝噎。。。
那么,日新月異、一騎千里的人工智能,什么時候才能學會愛撫親昵風花雪月呢?今天上線的一篇Nature論文,麻省理工學院的研究人員朝這個方向邁進了一大步。
秘密就在上面這個手套,看起來普普通通,只是上面安裝了包含548個柔性壓阻傳感器的陣列,覆蓋全手掌,可以感知觸摸時的壓力大小,范圍在30到500mN之間,離散為150個級別,一秒鐘可以采樣7.3次,并輸出相應電信號。也就是說,這個手套有相當不錯的時空分辨率和壓力精度,戴著它撫摸抓取的時候可以獲得大量觸覺數據,而造價只要10美金。
機器視覺其實已經突飛猛進,非常發達,但觸覺則起步不久。因為相對攝像機照相機而言,此前人們對觸覺感應數據采集并沒有太多的需求,沒有多少人會異想天開把觸覺記憶存儲下來。但隨著機器人的發展,特別是未來對于服務機器人的需求,光有視覺顯然不夠了,觸覺也變得日益重要。這個手套,就像攝像機一樣,能夠抓取存儲動態的觸覺數據。
但光有手而沒有腦,還是沒有感覺和情感。于是作者戴上手套反復抓取26個不同的物體,獲得13萬5千組觸覺壓力的時空數據,并通過卷積神經網絡深度學習方法進行訓練,教會了機器觸覺。其卷積神經網絡構架如下,基于ResNet-18:
結果顯示,只要7組時空數據輸入,就可以比較準確辨識不同的物體:
結果顯示,只要7組時空數據輸入,就可以比較準確辨識不同的物體:
也可以大致估算物體的重量:
也可以大致估算物體的重量:
也就是說,機器已經具備了初步的觸覺。下一步的呢,我想應該是通過觸覺,進一步讓機器學會情感,比如愛撫親昵時的愉悅,咬牙切齒時的憤怒,和手足無措的焦躁,都可以通過觸覺傳感和腦神經電極同時取樣,深度學習。一個喜怒哀樂溢于言表的機器人,就產生了。
這樣的機器人,您想來幾個呢?
張夕一