“華人 AI 女神”李飛飛,她給機器人造了個進化基地!

不知從何時起,AI 人工智能遍地開花。圖像識別、語音識別、AI 換臉、AI 語音助手,人工智能已經深入生活的方方面面。特別是圖像識別技術,已經廣泛應用在生活中,在火車站、機場、移動支付 App 甚至小區門禁,到處都是圖像識別技術的影子。

然而,除了從事 AI 研究的人羣,很少有人知道,人工智能圖像識別技術,最早由一位華人女科學家發起,她就是人稱“華爲 AI 女神”的李飛飛。

李飛飛所從事的計算機視覺和機器學習領域是人工智能的重要分支,致力於讓機器“看見”和識別物體,並推斷物體的立體形狀,甚至理解事物之間的關聯,人的情緒、動作及意圖。在計算機視覺技術日臻成熟之際,這位 AI 界無人不曉的女人,又有了新的研究方向。

爲了實現更高級別的智能,李飛飛加入斯坦福視覺與學習實驗室(SVL)Silvio ,帶領一個研究小組,推出一個全新的模擬環境 iGibson,專門用於人工智能機器人升級訓練。

神奇的“升級”基地

機器人如何升級?在瞭解 iGibson 項目之前,小黑也是一頭霧水。在日常生活中,小黑遇見過不少機器人,比如自動清潔家庭衛生的掃地機器人,以及醫院裡使用的自動消毒機器人。這些機器人都用共同的特點,自動識別所在區域環境,然後按照固定算法清潔、消毒室內衛生。

顯而易見,機器人的核心並不是“四肢”,還是提供智慧的“核心算法”。算法類似人腦神經元網絡,包羅萬象、結構複雜,爲機器人遇到各類狀況提供解決方案。理論上,掃地機器人算法遠遠不及人腦神經元網絡複雜,畢竟它只需要應付掃地這一件小事。

時至今日,已經有成千上萬家庭用上掃地機器人,大大降低了家務負擔。然而,居家生活除了掃地、拖地,還需要擦桌子、擦窗戶、切菜、燒菜、收納整理。這些工作比掃地更加複雜,需要更加精密細緻的算法,還需要隨着傢俱擺放位置隨時調整。

精細的算法必然伴隨着大量數據,人工智能基本原理與人腦類似,需要不斷學習加強記憶,這一過程也叫機器學習。現實世界中,機器人收集大量數據,需要不斷搭建新場景,或者前往新空間測試。

比如如今火熱的自動駕駛技術,每天都有上萬輛自動駕駛車輛在各大試驗區域行駛,從而獲取數據。更有甚者,特斯拉等自動駕駛汽車廠商還會收集消費者數據,從而讓自動駕駛算法更加智能。

自動駕駛技術測試僅憑道路測試即可,而用於家居環境的機器人算法,想要收集海量數據,只靠現實世界中的數據不太現實。爲了讓機器人開發者們更好地編寫“控制算法”,李飛飛團隊特地推出 iGibson,即交互式吉布森環境,一個提供快速視覺渲染和物理模擬的環境。

“高智商”機器人,從這裡開始

iGibson 配備 15 個全交互高品質場景,數百個真實家庭和辦公室重構的大型 3D 場景。

真實的傳感器信號,包括 RGB 信號與激光雷達;內置運動規劃算法,可用於機器人底座移動優化與機器臂的移動,機器人可以在室內環境隨意走動、抓取操縱物體。

開發者們可以進入其中,在模擬環境中操縱機器人運動,比如開門、拾取和放置物體或在櫃子中找東西。

▲ 日落城中機器人指揮交通

iGibson 模擬的場景讓小黑想到美劇《愛、死亡與機器人 2》中的場景。在一個名叫日落城的小鎮,居民們不用幹任何工作,從吃喝拉撒到衛生清潔,所有能想到的工作全被機器人替代了。高度智能化的機器人可以指揮交通、整理家務、疊衣服,還可以保護主人,免遭大型動物或者匪徒的侵害。

▲ 機器人除害模式

當小黑看到機器人伸出長長的手臂調整相框位置時,不禁暢想未來機器人高度發達的世界。只要買上幾個機器人,就可以包攬所有家務,想想就覺得挺美的。

▲ 機器人整理相框

回到現實,真正的家務機器人與電視劇中相差甚遠,除了掃地、拖地,幾乎沒什麼能夠幫忙的地方。爲此,iGibson 模擬環境配備了起居室、廚房、辦公室等場景,機器人可以盡情地在其中交互、測試,不斷打磨核心算法。

模擬環境中,不僅有傢俱、電器等常用物品,還有溫度、溼度、清潔程度等環境因素。以最簡單的掃地機器人爲例,傳統掃地機器人並不能判斷地板清潔程度,只能依據固定的算法,每天一遍遍地打掃衛生。

若這臺掃地機器人在 iGibson 模擬環境中訓練,被賦予識別家居環境清潔程度這一功能,就可以自主開始衛生清潔。如此一來,機器人的主人也不用定時查看、操作掃地機器人,只需保證掃地機器人處於工作狀態,家居環境自動清潔完成。

除了掃地機器人,還有整理家務的機器人,做飯機器人等,都能在 iGibson 模擬環境中訓練。由於 iGibson 提供交互導航功能學習,家務機器人可以改變所在環境,比如打開/關閉房門、打開抽屜/櫥櫃門等等。如此一來,家務機器人就可以像家政人員一樣,隨意的在家裡走動,清潔各類傢俱衛生,就連櫥櫃裡角落裡的污漬,也可以清理乾淨。

通過底座的移動以機械臂的操縱,家務機器人可以在 iGibson 模擬環境中不斷優化算法,直到它可以應付各類複雜場景。屆時,一臺具備“高智商”的機器人也就誕生了。

圖像識別與模擬環境

在 AI 領域,李飛飛最大的貢獻或許在於強調了數據的重要性。早在 2006 年,李飛飛就意識到 AI 學術圈都在苦心尋找完美的算法,卻很少有人重視數據。李飛飛認爲,如果數據不能反映真實世界的情況,那麼算法再好也無法發揮作用。

於是,李飛飛與她的團隊搞出一個名爲 ImageNet 的數據集。這個數據集是所有視覺目標識別應用的鼻祖,該項目致力於分類、註釋圖像,然後建立數據庫幫助 AI 算法理解圖像。爲了使ImageNet 數據庫有更多人蔘與,李飛飛團隊與合作者創辦了 ImageNet 大規模視覺識別挑戰賽。鼓勵開發者利用 ImageNet 數據庫撰寫優異的視覺識別算法。

ImageNet 挑戰賽促進 AI 視覺識別技術快速發展,第一屆挑戰賽優勝者全都出任了谷歌、百度等專注於 AI 技術公司的高管。此後,每一年挑戰賽都在大幅度降低圖像識別技術錯誤率,圖像識別技術正式進入現實社會,全行業人工智能熱潮自此開始。

對比 ImageNet 數據庫與 iGibson 交互環境,可以看出李飛飛一如既往地從事 AI 技術“進化升級”工作。她並不從事 AI 技術開發,也沒有親自撰寫跨時代的 AI 算法,可她是那種授人以漁的科學家,爲 AI 開發者們提供數據庫、思路以及模擬環境。

ImageNet 數據庫的出現,讓無數視覺識別算法開發者看到方向,無數天才的想法都可以在此萌發。而現在,李飛飛團隊提供的 iGibson 交互環境,爲機器人算法提供了一個大型室內場景模擬環境。在這個開源環境中,任何想要開發機器人的團隊都可以使用,在測試中不斷優化自己的算法,直至可以應用的機器人誕生。

某種程度上,李飛飛團隊又在做一件可以改變世界的大事情。一旦 iGibson 模擬環境可以取得類似於 ImageNet 數據庫的成功,那麼具備“高智商”的機器人將源源不斷地誕生,一個全新的世界或許就此出現。

圖源:pixabay、 iGibson 官網、維基百科

喜歡這篇文章就點這裡