論文の概要: Re4MPC: Reactive Nonlinear MPC for Multi-model Motion Planning via Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2506.08344v1
- Date: Tue, 10 Jun 2025 01:58:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:41.063506
- Title: Re4MPC: Reactive Nonlinear MPC for Multi-model Motion Planning via Deep Reinforcement Learning
- Title(参考訳): Re4MPC: 深層強化学習による多モデル運動計画のためのリアクティブ非線形MPC
- Authors: Neşet Ünver Akmandor, Sarvesh Prajapati, Mark Zolotas, Taşkın Padır,
- Abstract要約: 本稿では,Re4MPCと呼ばれる新しいマルチモデル動作計画パイプラインを提案する。
モデル予測制御(Model Predictive Control)を使用して、エンドエフェクタ目標を達成するための軌道を計算する。
我々は,Re4MPCの方が計算効率が高く,NMPCベースラインよりも高い成功率が得られることを示す。
- 参考スコア(独自算出の注目度): 0.94371657253557
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional motion planning methods for robots with many degrees-of-freedom, such as mobile manipulators, are often computationally prohibitive for real-world settings. In this paper, we propose a novel multi-model motion planning pipeline, termed Re4MPC, which computes trajectories using Nonlinear Model Predictive Control (NMPC). Re4MPC generates trajectories in a computationally efficient manner by reactively selecting the model, cost, and constraints of the NMPC problem depending on the complexity of the task and robot state. The policy for this reactive decision-making is learned via a Deep Reinforcement Learning (DRL) framework. We introduce a mathematical formulation to integrate NMPC into this DRL framework. To validate our methodology and design choices, we evaluate DRL training and test outcomes in a physics-based simulation involving a mobile manipulator. Experimental results demonstrate that Re4MPC is more computationally efficient and achieves higher success rates in reaching end-effector goals than the NMPC baseline, which computes whole-body trajectories without our learning mechanism.
- Abstract(参考訳): 移動マニピュレータのような多くの自由度を持つロボットの伝統的な動き計画法は、現実の環境において計算的に禁止されることが多い。
本稿では,非線形モデル予測制御(NMPC)を用いて軌道を演算する,Re4MPCと呼ばれる新しいマルチモデル運動計画パイプラインを提案する。
Re4MPCは、タスクやロボットの状態の複雑さに応じて、NMPC問題のモデル、コスト、制約をリアクティブに選択することにより、計算的に効率的なトラジェクトリを生成する。
このリアクティブな意思決定の方針は、Deep Reinforcement Learning (DRL)フレームワークを通じて学習される。
このDRLフレームワークにNMPCを統合する数学的定式化を導入する。
提案手法と設計選択を検証するため,移動マニピュレータを用いた物理シミュレーションにおいてDRLトレーニングとテスト結果の評価を行った。
実験により,Re4MPCは計算効率が高く,学習機構を使わずに全身軌跡を計算するNMPCベースラインよりも,エンドエフェクタ目標を達成する上で高い成功率が得られることが示された。
関連論文リスト
- Learning-Based Approximate Nonlinear Model Predictive Control Motion Cueing [11.313274230727549]
モーションキューアルゴリズム(Motion Cueing Algorithms)は、シミュレーションされた車両の運動を、モーションシミュレータで再現できる運動に符号化する。
本稿では,シリアルロボットを用いたモーションシミュレータのための新しい学習型MCAを提案する。
計算負荷をオフライントレーニングにシフトすることで,高制御率でリアルタイム操作を可能にする。
論文 参考訳(メタデータ) (2025-04-01T06:52:30Z) - Sample-Efficient Reinforcement Learning of Koopman eNMPC [42.72938925647165]
強化学習は、データ駆動(経済)非線形モデル予測コントローラ((e)NMPC)を、特定の制御タスクにおける最適な性能に調整するために使用することができる。
モデルに基づくRLアルゴリズムと、Koopman (e)NMPCを自動微分可能なポリシーに変換する方法を組み合わせる。
論文 参考訳(メタデータ) (2025-03-24T15:35:16Z) - Dropout MPC: An Ensemble Neural MPC Approach for Systems with Learned Dynamics [0.0]
そこで本研究では,モンテカルロのドロップアウト手法を学習システムモデルに応用した,サンプリングベースアンサンブルニューラルMPCアルゴリズムを提案する。
この手法は一般に複雑な力学を持つ不確実なシステムを対象としており、第一原理から派生したモデルは推論が難しい。
論文 参考訳(メタデータ) (2024-06-04T17:15:25Z) - Parameter-Adaptive Approximate MPC: Tuning Neural-Network Controllers without Retraining [50.00291020618743]
この研究は、大規模なデータセットを再計算し、再トレーニングすることなくオンラインチューニングが可能な、新しいパラメータ適応型AMPCアーキテクチャを導入している。
資源制約の厳しいマイクロコントローラ(MCU)を用いた2種類の実カートポールシステムの揺らぎを制御し,パラメータ適応型AMPCの有効性を示す。
これらの貢献は、現実世界のシステムにおけるAMPCの実践的応用に向けた重要な一歩である。
論文 参考訳(メタデータ) (2024-04-08T20:02:19Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - End-to-End Reinforcement Learning of Koopman Models for Economic Nonlinear Model Predictive Control [45.84205238554709]
本研究では, (e)NMPCの一部として最適性能を示すために, Koopman シュロゲートモデルの強化学習法を提案する。
エンドツーエンドトレーニングモデルは,(e)NMPCにおけるシステム識別を用いてトレーニングしたモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-03T10:21:53Z) - Model Predictive Control via On-Policy Imitation Learning [28.96122879515294]
我々は,データ駆動型モデル予測制御のための新しいサンプル複雑性結果と性能保証を開発する。
我々のアルゴリズムは制約付き線形MPCの構造を用いており、解析は明示的なMPC解の特性を用いて、最適性能を達成するのに必要なオンラインMPCトラジェクトリの数を理論的に制限する。
論文 参考訳(メタデータ) (2022-10-17T16:06:06Z) - Reinforcement Learning for Adaptive Mesh Refinement [63.7867809197671]
マルコフ決定過程としてのAMRの新規な定式化を提案し,シミュレーションから直接改良政策を訓練するために深部強化学習を適用した。
これらのポリシーアーキテクチャのモデルサイズはメッシュサイズに依存しないため、任意に大きく複雑なシミュレーションにスケールします。
論文 参考訳(メタデータ) (2021-03-01T22:55:48Z) - Information Theoretic Model Predictive Q-Learning [64.74041985237105]
本稿では,情報理論的MPCとエントロピー正規化RLとの新たな理論的関連性を示す。
バイアスモデルを利用したQ-ラーニングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2019-12-31T00:29:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。