論文の概要: Robust Longitudinal Control for Vehicular Autonomous Platoons Using Deep
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2206.01175v1
- Date: Tue, 31 May 2022 20:38:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-03 15:28:39.168558
- Title: Robust Longitudinal Control for Vehicular Autonomous Platoons Using Deep
Reinforcement Learning
- Title(参考訳): 深部強化学習を用いた車体自律プラトンに対するロバスト縦方向制御
- Authors: Armando Alves Neto and Leonardo Amaral Mozelli
- Abstract要約: 本稿では,各エージェントの加速度コマンドがネットワークトポロジーに依存しないように,車両小隊の訓練プロセスを一般化する手法を提案する。
本稿では,異なるネットワークトポロジ,不確実なパラメータ,外部力を用いた実験により提案手法の有効性について述べる。
- 参考スコア(独自算出の注目度): 3.0552168294716298
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the last few years, researchers have applied machine learning strategies
in the context of vehicular platoons to increase the safety and efficiency of
cooperative transportation. Reinforcement Learning methods have been employed
in the longitudinal spacing control of Cooperative Adaptive Cruise Control
systems, but to date, none of those studies have addressed problems of
disturbance rejection in such scenarios. Characteristics such as uncertain
parameters in the model and external interferences may prevent agents from
reaching null-spacing errors when traveling at cruising speed. On the other
hand, complex communication topologies lead to specific training processes that
can not be generalized to other contexts, demanding re-training every time the
configuration changes. Therefore, in this paper, we propose an approach to
generalize the training process of a vehicular platoon, such that the
acceleration command of each agent becomes independent of the network topology.
Also, we have modeled the acceleration input as a term with integral action,
such that the Convolutional Neural Network is capable of learning corrective
actions when the states are disturbed by unknown effects. We illustrate the
effectiveness of our proposal with experiments using different network
topologies, uncertain parameters, and external forces. Comparative analyses, in
terms of the steady-state error and overshoot response, were conducted against
the state-of-the-art literature. The findings offer new insights concerning
generalization and robustness of using Reinforcement Learning in the control of
autonomous platoons.
- Abstract(参考訳): 過去数年間、研究者は協調輸送の安全性と効率を高めるために、車載プラトンという文脈で機械学習戦略を適用してきた。
協調型適応型クルーズ制御システムの長手間隔制御に強化学習法が用いられているが、これらの研究はいずれもそのようなシナリオにおける妨害拒絶の問題に対処していない。
モデル内の不確定なパラメータや外部の干渉といった特性は、巡航速度で移動するエージェントがヌルスペーシングエラーに到達できない可能性がある。
一方、複雑なコミュニケーショントポロジは、他のコンテキストに一般化できない特定のトレーニングプロセスにつながり、設定が変わるたびに再トレーニングを要求する。
そこで本稿では,各エージェントの加速度指令がネットワークトポロジとは独立になるように,車両小隊の訓練プロセスを一般化する手法を提案する。
また,アクセラレーション入力を積分作用を持つ用語としてモデル化し,状態が未知の効果によって乱される場合に,畳み込みニューラルネットワークが補正作用を学習できるようにした。
本稿では,異なるネットワークトポロジ,不確実なパラメータ,外部力を用いた実験による提案の有効性について述べる。
定常誤差とオーバーシュート反応の観点で比較分析を行い,最新文献との比較を行った。
その結果,自律型プラトン制御における強化学習の一般化と堅牢性に関する新たな知見が得られた。
関連論文リスト
- End-to-End Steering for Autonomous Vehicles via Conditional Imitation Co-Learning [1.5020330976600735]
この課題に対処するために、条件付き模倣コラーニング(CIC)アプローチを導入する。
そこで我々は, 回帰と分類のギャップを埋めるために, 分類-回帰ハイブリッド損失を用いて, 操舵回帰問題を分類として提案する。
本モデルは,CIL法と比較して,見えない環境下での自律走行の成功率を平均62%向上させることを実証した。
論文 参考訳(メタデータ) (2024-11-25T06:37:48Z) - Mitigating Covariate Shift in Imitation Learning for Autonomous Vehicles Using Latent Space Generative World Models [60.87795376541144]
World Model(ワールドモデル)は、エージェントの次の状態を予測できるニューラルネットワークである。
エンド・ツー・エンドのトレーニングでは、人間のデモで観察された状態と整合してエラーから回復する方法を学ぶ。
クローズドループ試験における先行技術に有意な改善がみられた定性的,定量的な結果を示す。
論文 参考訳(メタデータ) (2024-09-25T06:48:25Z) - Interactive Autonomous Navigation with Internal State Inference and
Interactivity Estimation [58.21683603243387]
本稿では,関係時間的推論を伴う3つの補助的タスクを提案し,それらを標準のディープラーニングフレームワークに統合する。
これらの補助的なタスクは、他の対話的エージェントの行動パターンを推測するための追加の監視信号を提供する。
提案手法は,標準評価指標の観点から,頑健かつ最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-27T18:57:42Z) - DTC: Deep Tracking Control [16.2850135844455]
本研究では,両世界の強靭性,フット配置精度,地形の一般化を両世界の利点と組み合わせたハイブリッド制御アーキテクチャを提案する。
深層ニューラルネットワークポリシは、最適化された足場を追跡することを目的として、シミュレーションでトレーニングされている。
モデルベースに比べて滑りやすい地盤や変形可能な地盤が存在する場合の強靭性を示す。
論文 参考訳(メタデータ) (2023-09-27T07:57:37Z) - Learning Dynamics and Generalization in Reinforcement Learning [59.530058000689884]
時間差学習は, エージェントが訓練の初期段階において, 値関数の非平滑成分を適合させるのに役立つことを理論的に示す。
本研究では,高密度報酬タスクの時間差アルゴリズムを用いて学習したニューラルネットワークが,ランダムなネットワークや政策手法で学習した勾配ネットワークよりも,状態間の一般化が弱いことを示す。
論文 参考訳(メタデータ) (2022-06-05T08:49:16Z) - Coach-assisted Multi-Agent Reinforcement Learning Framework for
Unexpected Crashed Agents [120.91291581594773]
本稿では,予期せぬクラッシュを伴う協調型マルチエージェント強化学習システムの公式な定式化について述べる。
本稿では,教師支援型多エージェント強化学習フレームワークを提案する。
私たちの知る限りでは、この研究はマルチエージェントシステムにおける予期せぬクラッシュを初めて研究したものです。
論文 参考訳(メタデータ) (2022-03-16T08:22:45Z) - The Impact of Missing Velocity Information in Dynamic Obstacle Avoidance
based on Deep Reinforcement Learning [0.0]
本稿では,Deep Reinforcement Learningに基づく動的障害物回避手法を提案する。
障害物回避作業におけるエージェントの性能に及ぼす速度情報不足の影響を徹底的に検討する。
論文 参考訳(メタデータ) (2021-12-23T11:07:00Z) - Trajectory Tracking of Underactuated Sea Vessels With Uncertain
Dynamics: An Integral Reinforcement Learning Approach [2.064612766965483]
積分強化学習に基づくオンライン機械学習メカニズムを提案し,非線形追跡問題のクラスに対する解を求める。
このソリューションは、適応的批評家と勾配降下アプローチを用いて実現されるオンライン価値反復プロセスを用いて実装される。
論文 参考訳(メタデータ) (2021-04-01T01:41:49Z) - Adversarial Training is Not Ready for Robot Learning [55.493354071227174]
対人訓練は,ノルム有界摂動に耐性のあるディープラーニングモデルを訓練する有効な方法である。
敵訓練により得られたニューラルコントローラが3種類の欠陥を受けることを理論的および実験的に示す。
この結果から, ロボット学習にはまだ対応できていないことが示唆された。
論文 参考訳(メタデータ) (2021-03-15T07:51:31Z) - Reinforcement Learning for Autonomous Driving with Latent State
Inference and Spatial-Temporal Relationships [46.965260791099986]
強化学習フレームワークにおける潜伏状態の明示的に推測と空間的時間的関係の符号化は,この課題に対処する上で有効であることを示す。
我々は、強化学習者と教師付き学習者を組み合わせた枠組みにより、他の運転者の潜伏状態に関する事前知識を符号化する。
提案手法は,最先端のベースラインアプローチと比較して,T区間のナビゲーションにおける性能を著しく向上させる。
論文 参考訳(メタデータ) (2020-11-09T08:55:12Z) - Enhanced Adversarial Strategically-Timed Attacks against Deep
Reinforcement Learning [91.13113161754022]
本稿では,DRLに基づくナビゲーションシステムに対して,選択した時間フレーム上の物理ノイズパターンを妨害することにより,タイミングに基づく逆方向戦略を導入する。
実験結果から, 対向タイミング攻撃は性能低下を引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2020-02-20T21:39:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。