論文の概要: Vessel-following model for inland waterways based on deep reinforcement
learning
- arxiv url: http://arxiv.org/abs/2207.03257v1
- Date: Thu, 7 Jul 2022 12:19:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-08 22:04:14.861965
- Title: Vessel-following model for inland waterways based on deep reinforcement
learning
- Title(参考訳): 深層強化学習に基づく内陸水路の船尾追従モデル
- Authors: Fabian Hart, Ostap Okhrin, Martin Treiber
- Abstract要約: 本研究の目的は、複雑な車両動特性と環境障害に対するRLに基づく車両追従の実現可能性を検討することである。
そこで本研究では,現実的な船舶力学に基づく内陸水路の船体追従モデルを構築した。
モデルでは,すべてのシナリオにおいて安全で快適な運転が示され,優れた一般化能力が証明された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While deep reinforcement learning (RL) has been increasingly applied in
designing car-following models in the last years, this study aims at
investigating the feasibility of RL-based vehicle-following for complex vehicle
dynamics and strong environmental disturbances. As a use case, we developed an
inland waterways vessel-following model based on realistic vessel dynamics,
which considers environmental influences, such as varying stream velocity and
river profile. We extracted natural vessel behavior from anonymized AIS data to
formulate a reward function that reflects a realistic driving style next to
comfortable and safe navigation. Aiming at high generalization capabilities, we
propose an RL training environment that uses stochastic processes to model
leading trajectory and river dynamics. To validate the trained model, we
defined different scenarios that have not been seen in training, including
realistic vessel-following on the Middle Rhine. Our model demonstrated safe and
comfortable driving in all scenarios, proving excellent generalization
abilities. Furthermore, traffic oscillations could effectively be dampened by
deploying the trained model on a sequence of following vessels.
- Abstract(参考訳): 近年, 自動車追従モデルの設計において, 深部強化学習 (RL) が適用されてきているが, 複雑な車両力学および環境障害に対するRLに基づく車両追従の実現可能性について検討する。
そこで,本研究では,河川の流速や河川形状の変動など環境影響を考慮した,現実的な船舶動力学に基づく内陸水路追従モデルを開発した。
匿名化したaisデータから自然血管の挙動を抽出し,快適で安全なナビゲーションに隣接する現実的な運転スタイルを反映した報酬関数を定式化した。
高汎化能力を目指して,確率過程を用いて先導軌道と河川力学をモデル化するrl訓練環境を提案する。
トレーニングされたモデルを検証するために、ミドルラインでの現実的な容器追跡など、トレーニングで見られなかったさまざまなシナリオを定義しました。
我々のモデルは、あらゆるシナリオにおいて安全で快適な運転を示し、優れた一般化能力を示した。
さらに、後続の船列に訓練されたモデルを配置することで、交通振動を効果的に抑制することができる。
関連論文リスト
- Evaluating Robustness of Reinforcement Learning Algorithms for Autonomous Shipping [2.9109581496560044]
本稿では,自律型海運シミュレータにおける内陸水路輸送(IWT)のために実装されたベンチマークディープ強化学習(RL)アルゴリズムのロバスト性について検討する。
モデルのないアプローチはシミュレーターで適切なポリシーを達成でき、訓練中に遭遇したことのないポート環境をナビゲートすることに成功した。
論文 参考訳(メタデータ) (2024-11-07T17:55:07Z) - Model-Based Reinforcement Learning for Control of Strongly-Disturbed Unsteady Aerodynamic Flows [0.0]
本稿では,モデルに基づく強化学習(MBRL)手法を提案する。
モデルの堅牢性と一般化性は、2つの異なる流れ環境で実証される。
そこで本研究では,低次環境下で学んだ政策が,フルCFD環境における効果的な制御戦略に変換されることを実証する。
論文 参考訳(メタデータ) (2024-08-26T23:21:44Z) - Adversarial Safety-Critical Scenario Generation using Naturalistic Human Driving Priors [2.773055342671194]
本研究では,自然主義的人間運転先行と強化学習技術を用いた自然逆シナリオ生成ソリューションを提案する。
本研究は,本モデルにより,自然性と逆性の両方をカバーする現実的な安全クリティカルなテストシナリオを生成できることを示す。
論文 参考訳(メタデータ) (2024-08-06T13:58:56Z) - Aquatic Navigation: A Challenging Benchmark for Deep Reinforcement Learning [53.3760591018817]
ゲームエンジンとDeep Reinforcement Learningの統合の最近の進歩を利用して,水上ナビゲーションのための新しいベンチマーク環境を提案する。
具体的には、最も広く受け入れられているアルゴリズムの一つであるPPOに着目し、先進的なトレーニング手法を提案する。
実験により,これらの成分をうまく組み合わせることで,有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2024-05-30T23:20:23Z) - RACER: Rational Artificial Intelligence Car-following-model Enhanced by
Reality [51.244807332133696]
本稿では,アダプティブ・クルーズ・コントロール(ACC)運転行動を予測する,最先端の深層学習車追従モデルであるRACERを紹介する。
従来のモデルとは異なり、RACERは実走行の重要な要素であるRDC(Rational Driving Constraints)を効果的に統合している。
RACERはアクセラレーション、ベロシティ、スペーシングといった主要なメトリクスを網羅し、ゼロ違反を登録する。
論文 参考訳(メタデータ) (2023-12-12T06:21:30Z) - Reinforcement Learning with Human Feedback for Realistic Traffic
Simulation [53.85002640149283]
効果的なシミュレーションの鍵となる要素は、人間の知識と整合した現実的な交通モデルの導入である。
本研究では,現実主義に対する人間の嗜好のニュアンスを捉えることと,多様な交通シミュレーションモデルを統合することの2つの主な課題を明らかにする。
論文 参考訳(メタデータ) (2023-09-01T19:29:53Z) - Avoidance Navigation Based on Offline Pre-Training Reinforcement
Learning [0.0]
本稿では,移動ロボットの地図を使わずに回避ナビゲーションを行うための,事前学習型深部強化学習(DRL)を提案する。
早期の非効率なランダム探索を高速化するために,効率的なオフライン学習戦略を提案する。
DRLモデルは, 異なる環境下で普遍的な汎用能力を有することを示した。
論文 参考訳(メタデータ) (2023-08-03T06:19:46Z) - TrafficBots: Towards World Models for Autonomous Driving Simulation and
Motion Prediction [149.5716746789134]
我々は,データ駆動型交通シミュレーションを世界モデルとして定式化できることを示した。
動作予測とエンドツーエンドの運転に基づくマルチエージェントポリシーであるTrafficBotsを紹介する。
オープンモーションデータセットの実験は、TrafficBotsが現実的なマルチエージェント動作をシミュレートできることを示している。
論文 参考訳(メタデータ) (2023-03-07T18:28:41Z) - Objective-aware Traffic Simulation via Inverse Reinforcement Learning [31.26257563160961]
逆強化学習問題として交通シミュレーションを定式化する。
動的ロバストシミュレーション学習のためのパラメータ共有逆強化学習モデルを提案する。
提案モデルでは,実世界の車両の軌道を模倣し,同時に報酬関数を復元することができる。
論文 参考訳(メタデータ) (2021-05-20T07:26:34Z) - Learning to drive from a world on rails [78.28647825246472]
モデルベースアプローチによって,事前記録された運転ログからインタラクティブな視覚ベースの運転方針を学習する。
世界の前方モデルは、あらゆる潜在的な運転経路の結果を予測する運転政策を監督する。
提案手法は,carla リーダボードにまずランク付けし,40 倍少ないデータを用いて25%高い運転スコアを得た。
論文 参考訳(メタデータ) (2021-05-03T05:55:30Z) - Cautious Adaptation For Reinforcement Learning in Safety-Critical
Settings [129.80279257258098]
都市運転のような現実の安全クリティカルな目標設定における強化学習(RL)は危険である。
非安全クリティカルな「ソース」環境でエージェントが最初に訓練する「安全クリティカル適応」タスクセットを提案する。
多様な環境における事前経験がリスクを見積もるためにエージェントに装備するという直感に基づくソリューションアプローチであるCARLを提案する。
論文 参考訳(メタデータ) (2020-08-15T01:40:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。