論文の概要: QuadWBG: Generalizable Quadrupedal Whole-Body Grasping
- arxiv url: http://arxiv.org/abs/2411.06782v2
- Date: Mon, 13 Jan 2025 14:11:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:26:31.489446
- Title: QuadWBG: Generalizable Quadrupedal Whole-Body Grasping
- Title(参考訳): QuadWBG: 一般化可能な四足歩行
- Authors: Jilong Wang, Javokhirbek Rajabov, Chaoyi Xu, Yiming Zheng, He Wang,
- Abstract要約: アームマウントカメラを用いたロコマニピュレーション・コントローラの高機能化のためのモジュラー・フレームワークを提案する。
提案システムは実世界の89%の最先端のワンタイム把握精度を実現する。
- 参考スコア(独自算出の注目度): 7.802964645500815
- License:
- Abstract: Legged robots with advanced manipulation capabilities have the potential to significantly improve household duties and urban maintenance. Despite considerable progress in developing robust locomotion and precise manipulation methods, seamlessly integrating these into cohesive whole-body control for real-world applications remains challenging. In this paper, we present a modular framework for robust and generalizable whole-body loco-manipulation controller based on a single arm-mounted camera. By using reinforcement learning (RL), we enable a robust low-level policy for command execution over 5 dimensions (5D) and a grasp-aware high-level policy guided by a novel metric, Generalized Oriented Reachability Map (GORM). The proposed system achieves state-of-the-art one-time grasping accuracy of 89% in the real world, including challenging tasks such as grasping transparent objects. Through extensive simulations and real-world experiments, we demonstrate that our system can effectively manage a large workspace, from floor level to above body height, and perform diverse whole-body loco-manipulation tasks.
- Abstract(参考訳): 高度な操作能力を持つレッグロボットは、家庭の義務と都市維持を著しく改善する可能性がある。
ロバストな移動法や精密な操作法の開発においてかなりの進歩があったが、現実のアプリケーションのための密集した全身制御にシームレスに統合することは依然として困難である。
本稿では,1台のアームマウントカメラをベースとした,頑健で汎用的な全体ロコ操作制御のためのモジュラー・フレームワークを提案する。
強化学習(RL)を用いることで,5次元(5D)以上のコマンド実行のためのロバストな低レベルポリシと,新しいメトリクスである一般化指向性マップ(GORM)によってガイドされた把握可能な高レベルポリシを実現する。
提案システムは,透明物体の把握などの課題を含む,実世界の89%の最先端のワンタイム把握精度を実現する。
大規模なシミュレーションや実世界の実験を通じて,本システムは床の高さから体高までの広い作業空間を効果的に管理し,多種多様な全身ロボット操作タスクを遂行できることを実証した。
関連論文リスト
- ModSkill: Physical Character Skill Modularization [21.33764810227885]
我々は、複雑な全身スキルを独立した身体部品のための構成的でモジュラーなスキルに分解する新しいスキル学習フレームワークModSkillを紹介した。
提案手法は, 生成サンプリングによって強化された, このモジュール化されたスキル学習フレームワークが, 高精度なフルボディモーショントラッキングにおいて, 既存の手法より優れていることを示す。
論文 参考訳(メタデータ) (2025-02-19T22:55:49Z) - CAIMAN: Causal Action Influence Detection for Sample Efficient Loco-manipulation [17.94272840532448]
本稿では、疎タスク報酬のみに依存するロコ操作学習のための新しいフレームワークであるCAIMANを紹介する。
我々は,低レベルのロコモーションポリシとタスク関連速度コマンドを優先する高レベルのポリシーを組み合わせることによって,階層的な制御戦略を採用する。
フレームワークの優れたサンプル効率、多様な環境への適応性、そして微調整なしでハードウェアへの移行に成功したことを実証する。
論文 参考訳(メタデータ) (2025-02-02T16:16:53Z) - Robotic World Model: A Neural Network Simulator for Robust Policy Optimization in Robotics [50.191655141020505]
私たちは世界モデルを学ぶための新しいフレームワークを紹介します。
スケーラブルで堅牢なフレームワークを提供することで、現実のアプリケーションにおいて適応的で効率的なロボットシステムを実現することができる。
論文 参考訳(メタデータ) (2025-01-17T10:39:09Z) - Learning Multi-Agent Loco-Manipulation for Long-Horizon Quadrupedal Pushing [33.689150109924526]
本稿では,複数の四足歩行ロボットによる障害物対応長軸プッシュの課題に取り組む。
階層型多エージェント強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-11T16:27:25Z) - Whole-body end-effector pose tracking [10.426087117345096]
本研究では, 大規模作業空間におけるエンドエフェクタポーズトラッキングのための全身RL定式化手法を提案する。
提案手法は,ロボットの初期設定とエンドエフェクタポーズコマンドのための地形対応サンプリング戦略を含む。
展開時に2.64cmと3.64°のポーズ追跡誤差を達成し、既存の競争基準よりも優れている。
論文 参考訳(メタデータ) (2024-09-24T12:51:32Z) - QuadrupedGPT: Towards a Versatile Quadruped Agent in Open-ended Worlds [51.05639500325598]
ペットに匹敵するアジリティで多様なコマンドに従うように設計されたQuadrupedGPTを紹介します。
エージェントは多種多様なタスクを処理し,複雑な指示を行う能力を示し,多種多様四重化エージェントの開発に向けた重要な一歩である。
論文 参考訳(メタデータ) (2024-06-24T12:14:24Z) - Modular Neural Network Policies for Learning In-Flight Object Catching
with a Robot Hand-Arm System [55.94648383147838]
本稿では,ロボットハンドアームシステムによる飛行物体の捕獲方法の学習を可能にするモジュラーフレームワークを提案する。
本フレームワークは,物体の軌跡予測を学習するオブジェクト状態推定器,(ii)捕捉対象のポーズのスコアとランク付けを学ぶキャッチポーズ品質ネットワーク,(iii)ロボットハンドをキャッチ前ポーズに移動させるように訓練されたリーチ制御ポリシ,(iv)ソフトキャッチ動作を行うように訓練された把握制御ポリシの5つのコアモジュールから構成される。
各モジュールと統合システムのシミュレーションにおいて、我々のフレームワークを広範囲に評価し、飛行における高い成功率を示す。
論文 参考訳(メタデータ) (2023-12-21T16:20:12Z) - RoboAgent: Generalization and Efficiency in Robot Manipulation via
Semantic Augmentations and Action Chunking [54.776890150458385]
マルチタスク操作能力を持つユニバーサルエージェントを訓練するための効率的なシステムを開発した。
私たちは、12のスキルを持つ1つのエージェントを訓練することができ、38のタスクでその一般化を実証することができます。
平均すると、RoboAgentは目に見えない状況において、従来の方法よりも40%以上性能が高い。
論文 参考訳(メタデータ) (2023-09-05T03:14:39Z) - Learning and Adapting Agile Locomotion Skills by Transferring Experience [71.8926510772552]
本稿では,既存のコントローラから新しいタスクを学習するために経験を移譲することで,複雑なロボティクススキルを訓練するためのフレームワークを提案する。
提案手法は,複雑なアジャイルジャンプ行動の学習,後肢を歩いたまま目標地点への移動,新しい環境への適応を可能にする。
論文 参考訳(メタデータ) (2023-04-19T17:37:54Z) - Bi-Manual Block Assembly via Sim-to-Real Reinforcement Learning [24.223788665601678]
2つのxArm6ロボットがU字型組立タスクを、シミュレーションで90%以上、実際のハードウェアで50%の確率で解決する。
以上の結果から,本システムは今後,深部RLおよびSim2Real転送バイマニュアルポリアの研究を刺激していきたいと願っている。
論文 参考訳(メタデータ) (2023-03-27T01:25:24Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。