CoRL 2024 | 谷歌DeepMind、Meta與Franka Robotics共探機器人學習領(lǐng)域新突破!
CoRL 2024|谷歌DeepMind、Meta與Franka Robotics共探機器人學習領(lǐng)域新突破!
機器人學習會議CoRL(Conference on Robot Learning)是一年一度的國際會議,會議重點討論機器人和機器學習的交叉學科。今年于11月6日至9日在德國慕尼黑盛大舉行,吸引了眾多機器人界專業(yè)人士及同行業(yè)伙伴參觀并聆聽學術(shù)成果的發(fā)表!
谷歌DeepMind、Meta、英偉達、Amazon Robotics等多家知名科技公司贊助并出席CoRL。Franka Robotics作為世界級一流機器人研究平臺也贊助并出席了這一盛會,見證了多個大學及研究機構(gòu)的學者們借助Franka Robotics機械臂發(fā)表的學術(shù)成果,包括視覺語言模型、遙操作、機械手開發(fā)等創(chuàng)新方向。讓我們來一探究竟吧!
01
AHA-用于檢測機器人操控故障的視覺語言模型
由Jiafei Duan領(lǐng)導(dǎo),華盛頓大學及英偉達等機構(gòu)的學者們聯(lián)合發(fā)表的AHA,是一個專門為機器人任務(wù)失敗檢測和推理設(shè)計的視覺語言模型。它通過自然語言識別并解釋機器人的操作失敗情況。在訓練過程中,AHA使用了FailGen生成的大規(guī)模失敗軌跡數(shù)據(jù)集,該數(shù)據(jù)集通過模擬擾動生成失敗示例。AHA不僅在模擬中表現(xiàn)出色,還能在真實世界中推廣,顯著提升機器人任務(wù)的成功率和錯誤修復(fù)能力。該模型能幫助改進任務(wù)規(guī)劃、激勵函數(shù)及子任務(wù)驗證,從而增強機器人操作的穩(wěn)定性和效率。

更多項目詳情在論文:AHA:https://aha-vlm.github.io/
更多團隊成果:Manipulate-Anything:https://robot-ma.github.io/
Robo-Point:https://robo-point.github.io/
02
SkillGen-高效技能學習與部署的自動化示范生成
由英偉達團隊發(fā)布的SkillGen,是一種自動化演示生成系統(tǒng)。用于幫助機器人高效學習和執(zhí)行復(fù)雜技能。只需少量人類演示數(shù)據(jù),SkillGen便自主生成大量演示動作,并適應(yīng)不同場景。這些數(shù)據(jù)訓練的機器人可以執(zhí)行多種操作任務(wù),展現(xiàn)出高成功率。SkillGen還支持仿真到真實的零樣本遷移,使機器人在復(fù)雜環(huán)境中靈活適應(yīng),顯著減少人力需求。

更多項目詳情在論文:https://skillgen.github.io/
03
ManipGen-局部策略實現(xiàn)零樣本長時間操控
由卡耐基梅隆大學及蘋果團隊聯(lián)合發(fā)布的ManipGen,是一項創(chuàng)新研究,旨在讓機器人更靈活地完成復(fù)雜多步任務(wù)。傳統(tǒng)機器人往往難以適應(yīng)新的物體和環(huán)境,需要大量人工演示。而ManipGen通過“局部策略”進行操作規(guī)劃,使機器人在不依賴新示例的情況下完成一系列分步任務(wù)。它結(jié)合視覺、語言和運動規(guī)劃,賦予機器人對物體和場景的理解能力,因此可以在復(fù)雜場景中更自主地行動。實驗表明,ManipGen在任務(wù)執(zhí)行中表現(xiàn)優(yōu)異,尤其適合不同物體和場景的復(fù)雜操作任務(wù)。

更多項目詳情在論文:https://mihdalal.github.io/manipgen/
04
PointFlowMatch-從點云中學習機器人操控策略的條件流匹配方法
由德國弗萊堡大學計算機科學團隊提出的一種名為PointFlowMatch的新方法,用于從點云數(shù)據(jù)中學習機器人操控策略。通過條件流匹配(CFM)技術(shù),PointFlowMatch可以生成機器人長時間、多階段的操作路徑,并適應(yīng)多種任務(wù)情境。實驗表明,該方法在RLBench測試任務(wù)中的成功率達到了67.8%,是現(xiàn)有最佳方法的兩倍。該技術(shù)為機器人學習復(fù)雜操控任務(wù)提供了更靈活和高效的解決方案。
更多項目詳情在論文:http://pointflowmatch.cs.uni-freiburg.de/
05
Get a Grip-多指抓取算法穩(wěn)定實現(xiàn)模擬到現(xiàn)實的遷移
由斯坦福大學和加州理工學院學者聯(lián)合發(fā)明了一種新方法Get a Grip,通過使用判別模型評估抓取來實現(xiàn)多指抓取穩(wěn)定模擬到現(xiàn)實轉(zhuǎn)移。并發(fā)布了一個包含350萬次抓取的大型數(shù)據(jù)集,涵蓋了各種不同的抓取示例以及相應(yīng)的感知數(shù)據(jù)。通過這個數(shù)據(jù)集訓練抓取評估,研究表明其性能超越了現(xiàn)有的生成模型,尤其在現(xiàn)實環(huán)境中的表現(xiàn)更加優(yōu)秀。研究結(jié)果也表明,數(shù)據(jù)的規(guī)模對實驗成功產(chǎn)生重大作用。
更多項目詳情在論文:https://arxiv.org/abs/2410.23701
06
Vocal Sandbox-語音指令教機器人執(zhí)行任務(wù)
由斯坦福大學學者們開發(fā)的Vocal Sandbox項目,提出了一個新框架,用于實時的人機協(xié)作,能夠讓機器人從人類的多種輸入中持續(xù)學習和適應(yīng),包括語音指令、視覺演示和物理引導(dǎo)。該框架旨在提高機器人響應(yīng)性,使其能夠?qū)W習復(fù)雜任務(wù)并適應(yīng)不同的環(huán)境。用戶可以逐步教會機器人多層次技能,從簡單的操作到更高級的規(guī)劃行為,這些技能都可以在不同任務(wù)中重復(fù)使用。
在禮品包裝組裝和定格動畫制作的測試中,Vocal Sandbox表現(xiàn)出顯著的易用性提升,減少了22%的訓練時間,讓非專業(yè)用戶也能高效地教會機器人物體操作和復(fù)雜的運動技能。
我要收藏
點個贊吧
轉(zhuǎn)發(fā)分享
咨詢詳情:如需咨詢文中涉及的相關(guān)產(chǎn)品或解決方案詳情,請加微信:ZiDongHuaX 。
微信聯(lián)盟:機器學習微信群、斯坦福大學微信群,各細分行業(yè)微信群:點擊這里進入。
鴻達安視:水文水利在線監(jiān)測儀器、智慧農(nóng)業(yè)在線監(jiān)測儀器 查看各品牌在細分領(lǐng)域的定位宣傳語
微信聯(lián)盟:機器學習微信群、斯坦福大學微信群,各細分行業(yè)微信群:點擊這里進入。
鴻達安視:水文水利在線監(jiān)測儀器、智慧農(nóng)業(yè)在線監(jiān)測儀器 查看各品牌在細分領(lǐng)域的定位宣傳語


評論排行