論文の概要: Modelling, Positioning, and Deep Reinforcement Learning Path Tracking
Control of Scaled Robotic Vehicles: Design and Experimental Validation
- arxiv url: http://arxiv.org/abs/2401.05194v1
- Date: Wed, 10 Jan 2024 14:40:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-11 14:33:11.534387
- Title: Modelling, Positioning, and Deep Reinforcement Learning Path Tracking
Control of Scaled Robotic Vehicles: Design and Experimental Validation
- Title(参考訳): 大規模ロボットのモデリング, 位置決め, 深層強化学習経路追従制御: 設計と実験検証
- Authors: Carmine Caponio, Pietro Stano, Raffaele Carli, Ignazio Olivieri,
Daniele Ragone, Aldo Sorniotti and Umberto Montanaro
- Abstract要約: スケールされたロボットカーは通常、車両の状態の推定と制御に特化したタスクを含む階層的な制御機構を備えている。
本稿では, (i) フェデレートされた拡張カルマンフィルタ (FEKF) と (ii) エキスパートデモレータを用いて訓練された新しい深部強化学習 (DRL) パストラッキングコントローラを提案する。
実験により検証されたモデルは、(i)FEKFの設計を支援するために使用され、(ii)DRLに基づく経路追跡アルゴリズムをトレーニングするためのデジタルツインとして機能する。
- 参考スコア(独自算出の注目度): 3.807917169053206
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mobile robotic systems are becoming increasingly popular. These systems are
used in various indoor applications, raging from warehousing and manufacturing
to test benches for assessment of advanced control strategies, such as
artificial intelligence (AI)-based control solutions, just to name a few.
Scaled robotic cars are commonly equipped with a hierarchical control
acthiecture that includes tasks dedicated to vehicle state estimation and
control. This paper covers both aspects by proposing (i) a federeted extended
Kalman filter (FEKF), and (ii) a novel deep reinforcement learning (DRL) path
tracking controller trained via an expert demonstrator to expedite the learning
phase and increase robustess to the simulation-to-reality gap. The paper also
presents the formulation of a vehicle model along with an effective yet simple
procedure for identifying tis paramters. The experimentally validated model is
used for (i) supporting the design of the FEKF and (ii) serving as a digital
twin for training the proposed DRL-based path tracking algorithm. Experimental
results confirm the ability of the FEKF to improve the estimate of the mobile
robot's position. Furthermore, the effectiveness of the DRL path tracking
strateguy is experimentally tested along manoeuvres not considered during
training, showing also the ability of the AI-based solution to outpeform
model-based control strategies and the demonstrator. The comparison with
benchmraking controllers is quantitavely evalueted through a set of key
performance indicators.
- Abstract(参考訳): モバイルロボットシステムはますます人気が高まっている。
これらのシステムは、ウェアハウジングや製造から、人工知能(AI)ベースの制御ソリューションなど、高度な制御戦略を評価するためのベンチテストまで、さまざまな屋内アプリケーションで使用されている。
大規模ロボットカーは通常、車両の状態推定と制御に特化したタスクを含む階層的な制御機構を備えている。
本論文は,両側面について提案する。
(i)フェデレット拡張カルマンフィルタ(fekf)、及び
(II) エキスパートデモレータを介して訓練された新しい深部強化学習(DRL)パストラッキングコントローラにより, 学習フェーズの迅速化と, シミュレーションと現実のギャップへのロバスト化を図る。
また,自動車モデルの定式化と,歯の寄生虫を同定する効果的な方法を提案する。
実験的に検証されたモデルは
(i)fekfの設計を支援すること、及び
(II)DRLに基づく経路追跡アルゴリズムをトレーニングするためのデジタルツインとして機能する。
実験により、FEKFが移動ロボットの位置推定を改善する能力を確認した。
さらに、DRL経路追跡ストラテジーの有効性は、トレーニング中に考慮されていない操作に沿って実験的に検証され、AIベースのソリューションがモデルベースの制御戦略とデモンストレーターを上回る能力を示す。
benchmrakingコントローラとの比較は、一連の重要なパフォーマンス指標を通じて定量化される。
関連論文リスト
- A comparison of RL-based and PID controllers for 6-DOF swimming robots:
hybrid underwater object tracking [8.362739554991073]
本稿では,PIDコントローラの代替として,集中型深層Q-network(DQN)コントローラを用いた調査と評価を行う。
我々の主な焦点は、この遷移を水中物体追跡の特定のケースで説明することに集中している。
本実験は,Unityをベースとしたシミュレータで実施し,分離したPIDコントローラ上での集中型RLエージェントの有効性を検証した。
論文 参考訳(メタデータ) (2024-01-29T23:14:15Z) - Data-efficient Deep Reinforcement Learning for Vehicle Trajectory
Control [6.144517901919656]
強化学習(RL)は、古典的なアプローチよりも優れた制御性能を達成することを約束する。
SAC(Soft-actor critic)のような標準RLアプローチでは、大量のトレーニングデータを収集する必要がある。
近年開発されたディープRL法を車両軌道制御に適用した。
論文 参考訳(メタデータ) (2023-11-30T09:38:59Z) - Learning to Fly in Seconds [7.259696592534715]
カリキュラム学習と高度に最適化されたシミュレータが,サンプルの複雑さを増し,学習時間の短縮につながることを示す。
我々のフレームワークは、コンシューマ級ラップトップで18秒のトレーニングをした後、直接制御するためのSimulation-to-Real(Sim2Real)転送を可能にする。
論文 参考訳(メタデータ) (2023-11-22T01:06:45Z) - Rethinking Closed-loop Training for Autonomous Driving [82.61418945804544]
本研究は,学習エージェントの成功に対する異なるトレーニングベンチマーク設計の影響を分析した最初の実証的研究である。
複数ステップのルックアヘッドで計画を行うRLベースの駆動エージェントであるtrajectory value learning (TRAVL)を提案する。
実験の結果,TRAVLはすべてのベースラインと比較してより速く学習でき,安全な操作が可能であることがわかった。
論文 参考訳(メタデータ) (2023-06-27T17:58:39Z) - FastRLAP: A System for Learning High-Speed Driving via Deep RL and
Autonomous Practicing [71.76084256567599]
本稿では、自律型小型RCカーを強化学習(RL)を用いた視覚的観察から積極的に駆動するシステムを提案する。
我々のシステムであるFastRLAP (faster lap)は、人間の介入なしに、シミュレーションや専門家によるデモンストレーションを必要とせず、現実世界で自律的に訓練する。
結果として得られたポリシーは、タイミングブレーキや回転の加速度などの突発的な運転スキルを示し、ロボットの動きを妨げる領域を避け、トレーニングの途中で同様の1対1のインタフェースを使用して人間のドライバーのパフォーマンスにアプローチする。
論文 参考訳(メタデータ) (2023-04-19T17:33:47Z) - Self-Inspection Method of Unmanned Aerial Vehicles in Power Plants Using
Deep Q-Network Reinforcement Learning [0.0]
本研究は,UAV自律ナビゲーションとDQN強化学習を取り入れた発電所検査システムを提案する。
訓練されたモデルは、UAVが困難な環境で単独で移動できるようにすることで、検査戦略が実際に適用される可能性が高い。
論文 参考訳(メタデータ) (2023-03-16T00:58:50Z) - Unified Automatic Control of Vehicular Systems with Reinforcement
Learning [64.63619662693068]
本稿では,車載マイクロシミュレーションの合理化手法について述べる。
最小限の手動設計で高性能な制御戦略を発見する。
この研究は、波動緩和、交通信号、ランプ計測に類似した多くの創発的挙動を明らかにしている。
論文 参考訳(メタデータ) (2022-07-30T16:23:45Z) - Tackling Real-World Autonomous Driving using Deep Reinforcement Learning [63.3756530844707]
本研究では,加速と操舵角度を予測するニューラルネットワークを学習するモデルレスディープ強化学習プランナを提案する。
実際の自動運転車にシステムをデプロイするために、我々は小さなニューラルネットワークで表されるモジュールも開発する。
論文 参考訳(メタデータ) (2022-07-05T16:33:20Z) - Constrained Reinforcement Learning for Robotics via Scenario-Based
Programming [64.07167316957533]
DRLをベースとしたエージェントの性能を最適化し,その動作を保証することが重要である。
本稿では,ドメイン知識を制約付きDRLトレーニングループに組み込む新しい手法を提案する。
我々の実験は、専門家の知識を活用するために我々のアプローチを用いることで、エージェントの安全性と性能が劇的に向上することを示した。
論文 参考訳(メタデータ) (2022-06-20T07:19:38Z) - Training and Evaluation of Deep Policies using Reinforcement Learning
and Generative Models [67.78935378952146]
GenRLはシーケンシャルな意思決定問題を解決するためのフレームワークである。
強化学習と潜在変数生成モデルの組み合わせを利用する。
最終方針訓練の性能に最も影響を与える生成モデルの特徴を実験的に決定する。
論文 参考訳(メタデータ) (2022-04-18T22:02:32Z) - Data-Efficient Deep Reinforcement Learning for Attitude Control of
Fixed-Wing UAVs: Field Experiments [0.37798600249187286]
DRLは、元の非線形力学を直接操作する固定翼UAVの姿勢制御をうまく学べることを示す。
我々は,UAVで学習したコントローラを飛行試験で展開し,最先端のArduPlane比例積分微分(PID)姿勢制御と同等の性能を示す。
論文 参考訳(メタデータ) (2021-11-07T19:07:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。