論文の概要: Inverse RL Scene Dynamics Learning for Nonlinear Predictive Control in Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2504.01336v1
- Date: Wed, 02 Apr 2025 03:46:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:18:27.854111
- Title: Inverse RL Scene Dynamics Learning for Nonlinear Predictive Control in Autonomous Vehicles
- Title(参考訳): 自律走行車における非線形予測制御のための逆RLシーンダイナミクス学習
- Authors: Sorin Grigorescu, Mihai Zaha,
- Abstract要約: 本稿では,自律ナビゲーションのための深層学習に基づくScene Dynamics(DL-NMPC-SD)手法を提案する。
DL-NMPC-SDは、時間範囲センシング情報から学習したシーンダイナミクスモデルと組み合わせて、アプリオリ名車モデルを使用する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This paper introduces the Deep Learning-based Nonlinear Model Predictive Controller with Scene Dynamics (DL-NMPC-SD) method for autonomous navigation. DL-NMPC-SD uses an a-priori nominal vehicle model in combination with a scene dynamics model learned from temporal range sensing information. The scene dynamics model is responsible for estimating the desired vehicle trajectory, as well as to adjust the true system model used by the underlying model predictive controller. We propose to encode the scene dynamics model within the layers of a deep neural network, which acts as a nonlinear approximator for the high order state-space of the operating conditions. The model is learned based on temporal sequences of range sensing observations and system states, both integrated by an Augmented Memory component. We use Inverse Reinforcement Learning and the Bellman optimality principle to train our learning controller with a modified version of the Deep Q-Learning algorithm, enabling us to estimate the desired state trajectory as an optimal action-value function. We have evaluated DL-NMPC-SD against the baseline Dynamic Window Approach (DWA), as well as against two state-of-the-art End2End and reinforcement learning methods, respectively. The performance has been measured in three experiments: i) in our GridSim virtual environment, ii) on indoor and outdoor navigation tasks using our RovisLab AMTU (Autonomous Mobile Test Unit) platform and iii) on a full scale autonomous test vehicle driving on public roads.
- Abstract(参考訳): 本稿では,自律ナビゲーションのためのScene Dynamics (DL-NMPC-SD) を用いたディープラーニングに基づく非線形モデル予測制御手法を提案する。
DL-NMPC-SDは、時間範囲センシング情報から学習したシーンダイナミクスモデルと組み合わせて、アプリオリ名車モデルを使用する。
シーンダイナミクスモデルは、所望の車両軌道を推定し、基礎となるモデル予測コントローラが使用する真のシステムモデルを調整する。
動作条件の高次状態空間に対する非線形近似器として機能するディープニューラルネットワークの層内におけるシーンダイナミクスモデルを符号化する。
このモデルは、観測範囲の観測とシステム状態の時間的シーケンスに基づいて学習され、どちらもAugmented Memoryコンポーネントによって統合される。
Inverse Reinforcement Learning と BellmanOptimity principle を用いて、Deep Q-Learning アルゴリズムの修正版で学習コントローラを訓練し、所望の状態軌跡を最適なアクション値関数として推定する。
DL-NMPC-SDをベースラインであるDynamic Window Approach (DWA) と、最先端のEnd2Endと強化学習法に対して評価した。
性能は3つの実験で測定された。
i) 我々のGridSim仮想環境において
二 ロビスラボAMTU(Autonomous Mobile Test Unit)プラットフォームを用いた屋内及び屋外ナビゲーション作業及び
三 公道で運転する完全自動運転車
関連論文リスト
- MetaFollower: Adaptable Personalized Autonomous Car Following [63.90050686330677]
適応型パーソナライズされた自動車追従フレームワークであるMetaFollowerを提案する。
まず,モデルに依存しないメタラーニング(MAML)を用いて,様々なCFイベントから共通運転知識を抽出する。
さらに、Long Short-Term Memory (LSTM) と Intelligent Driver Model (IDM) を組み合わせて、時間的不均一性を高い解釈性で反映する。
論文 参考訳(メタデータ) (2024-06-23T15:30:40Z) - Data-efficient Deep Reinforcement Learning for Vehicle Trajectory
Control [6.144517901919656]
強化学習(RL)は、古典的なアプローチよりも優れた制御性能を達成することを約束する。
SAC(Soft-actor critic)のような標準RLアプローチでは、大量のトレーニングデータを収集する必要がある。
近年開発されたディープRL法を車両軌道制御に適用した。
論文 参考訳(メタデータ) (2023-11-30T09:38:59Z) - Online Calibration of a Single-Track Ground Vehicle Dynamics Model by Tight Fusion with Visual-Inertial Odometry [8.165828311550152]
視覚的慣性眼圧計(VIO)を用いた車輪付き地上車両の単トラックダイナミックスモデルに厳密に融合する新しいアプローチST-VIOを提案する。
提案手法は,将来的な制御入力における前方予測の精度を向上させるために,動的モデルをオンラインで校正し,適応する。
論文 参考訳(メタデータ) (2023-09-20T08:50:30Z) - DRL-Based Trajectory Tracking for Motion-Related Modules in Autonomous Driving [3.006414390664518]
本稿では,自律運転システムにおける動作関連モジュールに対するディープ強化学習に基づく軌道追跡手法を提案する。
DLの表現学習能力とRLの探索特性は強靭性と精度の向上をもたらす。
論文 参考訳(メタデータ) (2023-08-30T12:24:30Z) - How to Learn and Generalize From Three Minutes of Data:
Physics-Constrained and Uncertainty-Aware Neural Stochastic Differential
Equations [24.278738290287293]
ニューラル微分方程式(SDE)を用いた制御力学モデル学習のためのフレームワークとアルゴリズムを提案する。
本研究では,従来の物理知識を帰納バイアスとして活用するためのドリフト項を構築し,学習モデルの予測の不確かさを距離認識した推定値を表す拡散項を設計する。
我々は、シミュレーションロボットシステムの実験を通じてこれらの能力を実証し、ヘキサコプターの飛行力学をモデル化し制御する。
論文 参考訳(メタデータ) (2023-06-10T02:33:34Z) - Tackling Real-World Autonomous Driving using Deep Reinforcement Learning [63.3756530844707]
本研究では,加速と操舵角度を予測するニューラルネットワークを学習するモデルレスディープ強化学習プランナを提案する。
実際の自動運転車にシステムをデプロイするために、我々は小さなニューラルネットワークで表されるモジュールも開発する。
論文 参考訳(メタデータ) (2022-07-05T16:33:20Z) - Physics-Inspired Temporal Learning of Quadrotor Dynamics for Accurate
Model Predictive Trajectory Tracking [76.27433308688592]
クオーロタのシステムダイナミクスを正確にモデル化することは、アジャイル、安全、安定したナビゲーションを保証する上で非常に重要です。
本稿では,ロボットの経験から,四重項系の力学を純粋に学習するための新しい物理インスパイアされた時間畳み込みネットワーク(PI-TCN)を提案する。
提案手法は,スパース時間的畳み込みと高密度フィードフォワード接続の表現力を組み合わせて,正確なシステム予測を行う。
論文 参考訳(メタデータ) (2022-06-07T13:51:35Z) - Gradient-Based Trajectory Optimization With Learned Dynamics [80.41791191022139]
データからシステムの微分可能なダイナミクスモデルを学習するために、機械学習技術を使用します。
ニューラルネットワークは、大規模な時間的地平線に対して、非常に非線形な振る舞いを正確にモデル化できることが示される。
ハードウェア実験において、学習したモデルがSpotとRadio- controlled (RC)の両方の複雑な力学を表現できることを実証した。
論文 参考訳(メタデータ) (2022-04-09T22:07:34Z) - Bayesian Optimization and Deep Learning forsteering wheel angle
prediction [58.720142291102135]
本研究の目的は,自動走行システムにおける操舵角度予測の精度の高いモデルを得ることである。
BOは限られた試行数で、BOST-LSTMと呼ばれるモデルを特定し、古典的なエンドツーエンド駆動モデルと比較して最も正確な結果を得た。
論文 参考訳(メタデータ) (2021-10-22T15:25:14Z) - A Driving Behavior Recognition Model with Bi-LSTM and Multi-Scale CNN [59.57221522897815]
運転行動認識のための軌道情報に基づくニューラルネットワークモデルを提案する。
提案手法を公開BLVDデータセット上で評価し,満足な性能を実現する。
論文 参考訳(メタデータ) (2021-03-01T06:47:29Z) - Iterative Semi-parametric Dynamics Model Learning For Autonomous Racing [2.40966076588569]
本稿では,ニューラルネットワークを用いた反復学習セミパラメトリックモデルを自律レースの課題に適用する。
我々のモデルは純粋にパラメトリックモデルよりも正確に学習でき、純粋に非パラメトリックモデルよりもより一般化できることを示す。
論文 参考訳(メタデータ) (2020-11-17T16:24:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。