論文の概要: A Framework for Deploying Learning-based Quadruped Loco-Manipulation
- arxiv url: http://arxiv.org/abs/2512.18938v1
- Date: Mon, 22 Dec 2025 01:19:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.458642
- Title: A Framework for Deploying Learning-based Quadruped Loco-Manipulation
- Title(参考訳): 学習型4段式ロコマニピュレーションの展開のためのフレームワーク
- Authors: Yadong Liu, Jianwei Liu, He Liang, Dimitrios Kanoulas,
- Abstract要約: 我々は、Z1アームを搭載したUnitree B1上で、RLベースのコントローラをトレーニング、ベンチマーク、デプロイするためのオープンパイプラインを提示する。
このフレームワークは、ROSを通じてsim-to-simおよびsim-to-real転送を統一し、Isaac Gymでトレーニングされたポリシーを再実装し、ハードウェア抽象化層を介してMuJoCoに拡張し、物理ハードウェアに同じコントローラをデプロイする。
- 参考スコア(独自算出の注目度): 9.16082538503878
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quadruped mobile manipulators offer strong potential for agile loco-manipulation but remain difficult to control and transfer reliably from simulation to reality. Reinforcement learning (RL) shows promise for whole-body control, yet most frameworks are proprietary and hard to reproduce on real hardware. We present an open pipeline for training, benchmarking, and deploying RL-based controllers on the Unitree B1 quadruped with a Z1 arm. The framework unifies sim-to-sim and sim-to-real transfer through ROS, re-implementing a policy trained in Isaac Gym, extending it to MuJoCo via a hardware abstraction layer, and deploying the same controller on physical hardware. Sim-to-sim experiments expose discrepancies between Isaac Gym and MuJoCo contact models that influence policy behavior, while real-world teleoperated object-picking trials show that coordinated whole-body control extends reach and improves manipulation over floating-base baselines. The pipeline provides a transparent, reproducible foundation for developing and analyzing RL-based loco-manipulation controllers and will be released open source to support future research.
- Abstract(参考訳): 擬似移動マニピュレータは、アジャイルのロコ操作に強い可能性を秘めているが、シミュレーションから現実への確実に制御と転送は困難である。
強化学習(RL)は、ボディ全体の制御を約束するが、ほとんどのフレームワークはプロプライエタリであり、実際のハードウェアでは再現が難しい。
我々は、Z1アームを搭載したUnitree B1上で、RLベースのコントローラをトレーニング、ベンチマーク、デプロイするためのオープンパイプラインを提示する。
このフレームワークは、ROSを通じてsim-to-simおよびsim-to-real転送を統一し、Isaac Gymでトレーニングされたポリシーを再実装し、ハードウェア抽象化層を介してMuJoCoに拡張し、物理ハードウェアに同じコントローラをデプロイする。
Sim-to-sim実験は、政策行動に影響を与えるIsaac GymとMuJoCoの接触モデルとの相違を露呈する一方、現実の遠隔操作型オブジェクトピッキング試験は、調整された全身制御が、浮動小数点ベースラインに到達し、操作を改善することを示している。
このパイプラインは、RLベースのロコ操作コントローラの開発と分析のための透過的で再現可能な基盤を提供し、将来の研究をサポートするためにオープンソースとしてリリースされる予定である。
関連論文リスト
- Simulating Environments with Reasoning Models for Agent Training [55.98861707136674]
トレーニング用の起動環境の構築は重く、脆く、進捗を制限します。
我々はSimia-SFTとSimia-RLの2つのフレームワークを提案する。
Simia-SFTとSimia-RLは、環境工学を使わずにスケーラブルなエージェントトレーニングを可能にする。
論文 参考訳(メタデータ) (2025-11-03T18:29:57Z) - EasySteer: A Unified Framework for High-Performance and Extensible LLM Steering [55.56674028743782]
大規模言語モデル(LLM)のステアリングは、推論時にモデル動作を制御するための有望なパラダイムとして登場した。
我々は,vLLM上に構築された高性能LLMステアリングのための統合フレームワークであるEasySteerを提案する。
論文 参考訳(メタデータ) (2025-09-29T17:59:07Z) - TeleOpBench: A Simulator-Centric Benchmark for Dual-Arm Dexterous Teleoperation [50.261933845325636]
本稿では,2次元デキスタラス遠隔操作に適したシミュレータ中心のベンチマークであるTeleOpBenchを紹介する。
このベンチマークでは、(i)MoCap、(ii)VRデバイス、(iii)腕手外骨格、(iv)単眼視追跡の4つの代表的遠隔操作モードを実装している。
論文 参考訳(メタデータ) (2025-05-19T06:08:53Z) - Learning to Fly in Seconds [7.259696592534715]
カリキュラム学習と高度に最適化されたシミュレータが,サンプルの複雑さを増し,学習時間の短縮につながることを示す。
我々のフレームワークは、コンシューマ級ラップトップで18秒のトレーニングをした後、直接制御するためのSimulation-to-Real(Sim2Real)転送を可能にする。
論文 参考訳(メタデータ) (2023-11-22T01:06:45Z) - Resilient Control of Networked Microgrids using Vertical Federated
Reinforcement Learning: Designs and Real-Time Test-Bed Validations [5.394255369988441]
本稿では、(a)モデル複雑度、(b)ISRデバイスの未知の動的挙動、(b)マルチパーティ所有のネットワークグリッドにおけるデータ共有に関するプライバシー問題、(2)シミュレーションからハードウェア・イン・ザ・ループテストベッドへの学習制御の移行について、新しいフェデレーション強化学習(Fed-RL)アプローチを提案する。
実験により,シミュレータ学習したRLコントローラは実時間テストベッドのセットアップによる説得力のある結果が得られ,sim-to-realギャップの最小化が検証された。
論文 参考訳(メタデータ) (2023-11-21T00:59:27Z) - DeXtreme: Transfer of Agile In-hand Manipulation from Simulation to
Reality [64.51295032956118]
我々は人型ロボットの手で頑健な操作を行える政策を訓練する。
本研究は,各種ハードウェアおよびシミュレータのデクスタラス操作におけるsim-to-real転送の可能性を再確認する。
論文 参考訳(メタデータ) (2022-10-25T01:51:36Z) - Zero-Shot Uncertainty-Aware Deployment of Simulation Trained Policies on
Real-World Robots [17.710172337571617]
深層強化学習(RL)エージェントは、トレーニング環境と実行環境のミスマッチにより、現実世界にデプロイされた時にエラーを起こす傾向がある。
本稿では,RLポリシーと従来型の手作りコントローラの強みを組み合わせた,新しい不確実性対応デプロイメント戦略を提案する。
実世界の2つの連続制御タスクにおいて、BCFはスタンドアロンのポリシーとコントローラの両方に優れる有望な結果を示す。
論文 参考訳(メタデータ) (2021-12-10T02:13:01Z) - Bayesian Controller Fusion: Leveraging Control Priors in Deep
Reinforcement Learning for Robotics [17.660913275007317]
従来の手作りコントローラーの強みとモデルフリー深部強化学習(RL)を組み合わせたハイブリッド制御戦略を提案する。
BCFはロボティクス領域で成長し、多くのタスクに対して信頼性はあるが最適でない制御が優先されるが、スクラッチからのRLは安全であり、データ非効率である。
実世界におけるゼロショットsim-to-realセッティングへのBCFの適用性と,そのアウト・オブ・ディストリビューション状態に対処する能力を示す。
論文 参考訳(メタデータ) (2021-07-21T00:43:32Z) - Residual Reinforcement Learning from Demonstrations [51.56457466788513]
報酬信号の最大化のために,従来のフィードバックコントローラからの制御動作を適用することで,ロボット作業の課題を解決する手段として,残留強化学習(Residual reinforcement learning, RL)が提案されている。
視覚的インプットから学習するための残差定式化を拡張し,実演を用いて報酬をスパースする。
6-DoFのUR5アームと28-DoFのデキスタラスハンドのシミュレーション操作に関する実験的評価は、デモからの残留RLが、行動クローニングやRL微調整よりも柔軟に、見えない環境条件に一般化できることを実証している。
論文 参考訳(メタデータ) (2021-06-15T11:16:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。