論文の概要: Differentiable Constrained Imitation Learning for Robot Motion Planning
and Control
- arxiv url: http://arxiv.org/abs/2210.11796v2
- Date: Mon, 28 Aug 2023 09:00:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 01:35:19.160410
- Title: Differentiable Constrained Imitation Learning for Robot Motion Planning
and Control
- Title(参考訳): ロボットの動作計画と制御のための可変制約模倣学習
- Authors: Christopher Diehl and Janis Adamek and Martin Kr\"uger and Frank
Hoffmann and Torsten Bertram
- Abstract要約: 我々は,交通エージェントのシミュレーションだけでなく,ロボットの動作計画と制御を制約するフレームワークを開発した。
モバイルロボットと自動運転アプリケーションに焦点をあてる。
移動ロボットナビゲーションと自動走行のシミュレーション実験は,提案手法の性能を示す証拠となる。
- 参考スコア(独自算出の注目度): 0.26999000177990923
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motion planning and control are crucial components of robotics applications
like automated driving. Here, spatio-temporal hard constraints like system
dynamics and safety boundaries (e.g., obstacles) restrict the robot's motions.
Direct methods from optimal control solve a constrained optimization problem.
However, in many applications finding a proper cost function is inherently
difficult because of the weighting of partially conflicting objectives. On the
other hand, Imitation Learning (IL) methods such as Behavior Cloning (BC)
provide an intuitive framework for learning decision-making from offline
demonstrations and constitute a promising avenue for planning and control in
complex robot applications. Prior work primarily relied on soft constraint
approaches, which use additional auxiliary loss terms describing the
constraints. However, catastrophic safety-critical failures might occur in
out-of-distribution (OOD) scenarios. This work integrates the flexibility of IL
with hard constraint handling in optimal control. Our approach constitutes a
general framework for constraint robotic motion planning and control, as well
as traffic agent simulation, whereas we focus on mobile robot and automated
driving applications. Hard constraints are integrated into the learning problem
in a differentiable manner, via explicit completion and gradient-based
correction. Simulated experiments of mobile robot navigation and automated
driving provide evidence for the performance of the proposed method.
- Abstract(参考訳): 動きの計画と制御は、自動走行のようなロボットアプリケーションの重要な要素である。
ここでは、システムダイナミクスや安全境界(例えば障害物)のような時空間的制約がロボットの動きを制限する。
最適制御からの直接方法は制約付き最適化問題を解く。
しかし、多くのアプリケーションで適切なコスト関数を見つけることは、部分的に相反する目的の重み付けのために本質的に困難である。
一方、行動クローニング(BC)のようなImitation Learning(IL)手法は、オフラインのデモから意思決定を学習するための直感的なフレームワークを提供し、複雑なロボットアプリケーションにおける計画と制御のための有望な道を構成する。
以前の作業は主にソフト制約アプローチに依存しており、制約を記述する追加の補助的損失項を使用する。
しかし、破滅的な安全クリティカルな障害は、アウト・オブ・ディストリビューション(OOD)のシナリオで起こりうる。
この作業は、ilの柔軟性と最適制御における厳しい制約処理を統合する。
本手法は,移動ロボットと自動走行アプリケーションに焦点を当てた交通エージェントシミュレーションと同様に,ロボットの動作計画と制御を制約する汎用フレームワークを構成する。
ハード制約は、明示的な補完と勾配に基づく補正によって、微分可能な方法で学習問題に統合される。
移動ロボットナビゲーションと自動運転のシミュレーション実験は,提案手法の性能を実証するものである。
関連論文リスト
- Bridging the gap between Learning-to-plan, Motion Primitives and Safe Reinforcement Learning [20.158498233576143]
キノダイナミック制約の下での軌道計画は、高度なロボティクス応用の基礎となる。
キノダイナミックプランニングの最近の進歩は、複雑な制約の下で複雑な動きを学習・計画技術が生成できることを実証している。
本稿では,学習から計画までの手法と強化学習を組み合わせることで,動作プリミティブのブラックボックス学習と最適化の新たな統合を実現する。
論文 参考訳(メタデータ) (2024-08-26T07:44:53Z) - Fast Kinodynamic Planning on the Constraint Manifold with Deep Neural
Networks [29.239926645660823]
本稿では,制約多様体の概念を利用した新しい学習計画フレームワークを提案する。
我々の手法は任意の制約を満たす計画を生成し、ニューラルネットワークの推論時間という短い一定時間でそれらを計算する。
我々は,2つのシミュレートされたタスクと,ロボット・エアホッケーにおける打撃動作を実行するために,クカ・LBRIiwa 14ロボットアームを用いた実世界のシナリオに対して,我々のアプローチを検証した。
論文 参考訳(メタデータ) (2023-01-11T06:54:11Z) - Leveraging Sequentiality in Reinforcement Learning from a Single
Demonstration [68.94506047556412]
本稿では,複雑なロボットタスクの制御ポリシーを1つの実演で学習するために,シーケンシャルなバイアスを活用することを提案する。
本研究は, ヒューマノイド移動やスタンドアップなど, 模擬課題のいくつかを, 前例のないサンプル効率で解くことができることを示す。
論文 参考訳(メタデータ) (2022-11-09T10:28:40Z) - Constrained Dynamic Movement Primitives for Safe Learning of Motor
Skills [25.06692536893836]
ロボット作業空間における制約満足度を実現するための制約付き動的運動プリミティブ(CDMP)を提案する。
異なる環境における異なるマニピュレータを用いた提案アルゴリズムの実装を示すビデオがここにある。
論文 参考訳(メタデータ) (2022-09-28T22:59:33Z) - Simultaneous Contact-Rich Grasping and Locomotion via Distributed
Optimization Enabling Free-Climbing for Multi-Limbed Robots [60.06216976204385]
移動, 把握, 接触問題を同時に解くための効率的な運動計画フレームワークを提案する。
ハードウェア実験において提案手法を実証し, より短い計画時間で, 傾斜角45degで自由クライミングを含む様々な動作を実現できることを示す。
論文 参考訳(メタデータ) (2022-07-04T13:52:10Z) - OSCAR: Data-Driven Operational Space Control for Adaptive and Robust
Robot Manipulation [50.59541802645156]
オペレーショナル・スペース・コントロール(OSC)は、操作のための効果的なタスクスペース・コントローラとして使われてきた。
本稿では,データ駆動型OSCのモデル誤差を補償するOSC for Adaptation and Robustness (OSCAR)を提案する。
本手法は,様々なシミュレーション操作問題に対して評価し,制御器のベースラインの配列よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2021-10-02T01:21:38Z) - How To Not Drive: Learning Driving Constraints from Demonstration [0.0]
本研究では,人間の運転軌跡から運動計画制約を学習するための新しい手法を提案する。
行動計画は、交通規則に従うために要求される高いレベルの意思決定に責任を負う。
運動プランナーの役割は、自動運転車が従うための実用的で安全な軌道を作り出すことである。
論文 参考訳(メタデータ) (2021-10-01T20:47:04Z) - Trajectory Tracking of Underactuated Sea Vessels With Uncertain
Dynamics: An Integral Reinforcement Learning Approach [2.064612766965483]
積分強化学習に基づくオンライン機械学習メカニズムを提案し,非線形追跡問題のクラスに対する解を求める。
このソリューションは、適応的批評家と勾配降下アプローチを用いて実現されるオンライン価値反復プロセスを用いて実装される。
論文 参考訳(メタデータ) (2021-04-01T01:41:49Z) - Reinforcement Learning for Robust Parameterized Locomotion Control of
Bipedal Robots [121.42930679076574]
シミュレーションにおけるロコモーションポリシをトレーニングするためのモデルフリー強化学習フレームワークを提案する。
ドメインランダム化は、システムダイナミクスのバリエーションにまたがる堅牢な振る舞いを学ぶためのポリシーを奨励するために使用されます。
本研究では、目標歩行速度、歩行高さ、旋回ヨーなどの多目的歩行行動について示す。
論文 参考訳(メタデータ) (2021-03-26T07:14:01Z) - Improving Input-Output Linearizing Controllers for Bipedal Robots via
Reinforcement Learning [85.13138591433635]
入力出力線形化コントローラの主な欠点は、正確な力学モデルが必要であり、入力制約を考慮できないことである。
本稿では,強化学習技術を用いた二足歩行ロボット制御の具体例について,両課題に対処する。
論文 参考訳(メタデータ) (2020-04-15T18:15:49Z) - Guided Constrained Policy Optimization for Dynamic Quadrupedal Robot
Locomotion [78.46388769788405]
我々は,制約付きポリシー最適化(CPPO)の実装に基づくRLフレームワークであるGCPOを紹介する。
誘導制約付きRLは所望の最適値に近い高速収束を実現し,正確な報酬関数チューニングを必要とせず,最適かつ物理的に実現可能なロボット制御動作を実現することを示す。
論文 参考訳(メタデータ) (2020-02-22T10:15:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。