論文の概要: ARMOR: Egocentric Perception for Humanoid Robot Collision Avoidance and Motion Planning
- arxiv url: http://arxiv.org/abs/2412.00396v1
- Date: Sat, 30 Nov 2024 08:39:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:41:43.796946
- Title: ARMOR: Egocentric Perception for Humanoid Robot Collision Avoidance and Motion Planning
- Title(参考訳): ARMOR:ヒューマノイドロボット衝突回避と運動計画のためのエゴセントリックな知覚
- Authors: Daehwa Kim, Mario Srouji, Chen Chen, Jian Zhang,
- Abstract要約: ARMORはヒューマノイドロボットのための新しい自我中心の認識システムである。
我々の分散認識アプローチはロボットの空間認識を高める。
ARMORの認識は、複数の高密度ヘッドマウントと外部搭載深度カメラを備えた装置よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 10.207814069339735
- License:
- Abstract: Humanoid robots have significant gaps in their sensing and perception, making it hard to perform motion planning in dense environments. To address this, we introduce ARMOR, a novel egocentric perception system that integrates both hardware and software, specifically incorporating wearable-like depth sensors for humanoid robots. Our distributed perception approach enhances the robot's spatial awareness, and facilitates more agile motion planning. We also train a transformer-based imitation learning (IL) policy in simulation to perform dynamic collision avoidance, by leveraging around 86 hours worth of human realistic motions from the AMASS dataset. We show that our ARMOR perception is superior against a setup with multiple dense head-mounted, and externally mounted depth cameras, with a 63.7% reduction in collisions, and 78.7% improvement on success rate. We also compare our IL policy against a sampling-based motion planning expert cuRobo, showing 31.6% less collisions, 16.9% higher success rate, and 26x reduction in computational latency. Lastly, we deploy our ARMOR perception on our real-world GR1 humanoid from Fourier Intelligence. We are going to update the link to the source code, HW description, and 3D CAD files in the arXiv version of this text.
- Abstract(参考訳): ヒューマノイドロボットは、知覚と知覚に大きなギャップがあり、密集した環境での運動計画を実行するのが困難である。
そこで本研究では,ハードウェアとソフトウェアを統合した,ヒューマノイドロボットのためのウェアラブルライクな深度センサを取り入れた,新たな自我中心型認識システムARMORを紹介する。
我々の分散認識アプローチはロボットの空間認識を高め、よりアジャイルな運動計画を促進する。
我々はまた、AMASSデータセットから約86時間分の人間の現実的な動きを活用することにより、動的衝突回避を行うために、トランスフォーマーに基づく模倣学習(IL)ポリシーをシミュレーションで訓練する。
我々は、ARMORの認識が、複数の高密度ヘッドマウントと外部搭載深度カメラを備えた装置よりも優れていることを示し、衝突が63.7%減少し、成功率が78.7%向上した。
また、我々のILポリシーをサンプリングベースのモーションプランニングエキスパートのcuRoboと比較すると、衝突が31.6%減少し、16.9%の成功率が向上し、計算遅延が26倍減少した。
最後に、Fourier Intelligenceの現実世界のGR1ヒューマノイドにARMORの認識をデプロイする。
このテキストのarXivバージョンでは、ソースコード、HW記述、および3DCADファイルへのリンクを更新します。
関連論文リスト
- HOMIE: Humanoid Loco-Manipulation with Isomorphic Exoskeleton Cockpit [52.12750762494588]
現在のヒューマノイド遠隔操作システムは、信頼性の高い低レベル制御ポリシーを欠いているか、または正確な全身制御コマンドを取得するのに苦労している。
本稿では,ヒューマノイドのロコ操作ポリシと低コストなエクソスケルトン型ハードウェアシステムを統合した,新しいヒューマノイド遠隔操作コックピットを提案する。
論文 参考訳(メタデータ) (2025-02-18T16:33:38Z) - Inverse Kinematics for Neuro-Robotic Grasping with Humanoid Embodied Agents [13.53738829631595]
本稿では,カルト空間におけるスムーズなロボットの動きを素早く設計できるゼロショットモーションプランニング手法を提案する。
B'ezier曲線をベースとしたCartesian Planは、我々の神経インスパイアされた逆運動学(IK)手法であるCycleIKによって、関節空間の軌跡に変換される。
人型ロボットNICOとNICOLの物理的ハードウェア上での動作プランナの評価を行った。
論文 参考訳(メタデータ) (2024-04-12T21:42:34Z) - Exploring 3D Human Pose Estimation and Forecasting from the Robot's Perspective: The HARPER Dataset [52.22758311559]
本研究では,ユーザとスポット間のダイアドインタラクションにおける3次元ポーズ推定と予測のための新しいデータセットであるHARPERを紹介する。
キーノーベルティは、ロボットの視点、すなわちロボットのセンサーが捉えたデータに焦点を当てることである。
HARPERの基盤となるシナリオには15のアクションが含まれており、そのうち10つはロボットとユーザの間の物理的接触を含んでいる。
論文 参考訳(メタデータ) (2024-03-21T14:53:50Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - COPILOT: Human-Environment Collision Prediction and Localization from
Egocentric Videos [62.34712951567793]
エゴセントリックな観測から人間と環境の衝突を予測する能力は、VR、AR、ウェアラブルアシストロボットなどのアプリケーションにおける衝突回避を可能にするために不可欠である。
本稿では、ボディマウントカメラから撮影した多視点エゴセントリックビデオから、多様な環境における衝突を予測するという課題を紹介する。
衝突予測と局所化を同時に行うために,COPILOTと呼ばれるトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2022-10-04T17:49:23Z) - Regularized Deep Signed Distance Fields for Reactive Motion Generation [30.792481441975585]
距離に基づく制約は、ロボットが自分の行動を計画し、安全に行動できるようにするための基本となる。
本研究では,任意のスケールでスムーズな距離場を計算できる単一暗黙関数ReDSDFを提案する。
共有作業空間における全身制御(WBC)と安全なヒューマンロボットインタラクション(HRI)のための代表的タスクにおけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-03-09T14:21:32Z) - Towards Disturbance-Free Visual Mobile Manipulation [11.738161077441104]
本研究では,新しい外乱回避手法を開発し,その中心に外乱予測の補助的課題について述べる。
Manipulathor を用いた実験の結果,新規な物体を用いた実験では,61.7% から85.6% に改善した。
論文 参考訳(メタデータ) (2021-12-17T22:33:23Z) - Nonprehensile Riemannian Motion Predictive Control [57.295751294224765]
本稿では,リアル・ツー・シムの報酬分析手法を導入し,リアルなロボット・プラットフォームに対する行動の可能性を確実に予測する。
連続的なアクション空間でオブジェクトを反応的にプッシュするクローズドループコントローラを作成します。
我々は,RMPCが乱雑な環境だけでなく,乱雑な環境においても頑健であり,ベースラインよりも優れていることを観察した。
論文 参考訳(メタデータ) (2021-11-15T18:50:04Z) - Human POSEitioning System (HPS): 3D Human Pose Estimation and
Self-localization in Large Scenes from Body-Mounted Sensors [71.29186299435423]
HPS(Human POSEitioning System)は、周囲の環境の3Dスキャンで登録された人間の完全な3Dポーズを回復する手法です。
最適化に基づく統合は2つの利点を生かし、結果としてドリフトのないポーズの精度が得られることを示す。
hpsは、人間が外部カメラに直接視線を向けなくてもシーンと対話できるvr/arアプリケーションとして使用できる。
論文 参考訳(メタデータ) (2021-03-31T17:58:31Z) - Deep Reinforcement learning for real autonomous mobile robot navigation
in indoor environments [0.0]
本研究では,地図やプランナーを使わずに,未知の環境下での自律型自律学習ロボットナビゲーションの概念を実証する。
ロボットの入力は、2DレーザースキャナーとRGB-Dカメラからの融合データと目標への向きのみである。
Asynchronous Advantage Actor-Critic Network(GA3C)の出力動作は、ロボットの線形および角速度である。
論文 参考訳(メタデータ) (2020-05-28T09:15:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。