論文の概要: Robust Path Following on Rivers Using Bootstrapped Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2303.15178v1
- Date: Fri, 24 Mar 2023 07:21:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 15:23:02.325874
- Title: Robust Path Following on Rivers Using Bootstrapped Reinforcement
Learning
- Title(参考訳): ブートストラップ強化学習による河川のロバストパス追従
- Authors: Niklas Paulig, Ostap Ohkrin
- Abstract要約: 本稿では,内陸海域における自律型表面容器(ASV)の航行制御のための深層強化学習(DRL)エージェントを開発した。
最先端のブートストラップ付きQ-ラーニングアルゴリズムと多用途のトレーニング環境ジェネレータを組み合わせることで、堅牢で正確な舵制御を実現する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper develops a Deep Reinforcement Learning (DRL)-agent for navigation
and control of autonomous surface vessels (ASV) on inland waterways. Spatial
restrictions due to waterway geometry and the resulting challenges, such as
high flow velocities or shallow banks, require controlled and precise movement
of the ASV. A state-of-the-art bootstrapped Q-learning algorithm in combination
with a versatile training environment generator leads to a robust and accurate
rudder controller. To validate our results, we compare the path-following
capabilities of the proposed approach to a vessel-specific PID controller on
real-world river data from the lower- and middle Rhine, indicating that the DRL
algorithm could effectively prove generalizability even in never-seen scenarios
while simultaneously attaining high navigational accuracy.
- Abstract(参考訳): 本稿では,内陸海域における自律型表面容器(ASV)の航行制御のための深層強化学習(DRL)エージェントを開発した。
水路の幾何学による空間的制限と、高流動速度や浅瀬のような結果として生じる課題は、ANVの制御と正確な移動を必要とする。
最先端のブートストラップq-learningアルゴリズムと多用途なトレーニング環境ジェネレータを組み合わせることで、堅牢で正確なラダーコントローラが実現される。
提案手法の経路追従性能を,下流ライン川と中部ライン川からの実世界の河川データに対して比較したところ,DRLアルゴリズムは航法精度を高く保ちながら,見つからないシナリオでも効果的に一般化可能であることが示唆された。
関連論文リスト
- Aquatic Navigation: A Challenging Benchmark for Deep Reinforcement Learning [53.3760591018817]
ゲームエンジンとDeep Reinforcement Learningの統合の最近の進歩を利用して,水上ナビゲーションのための新しいベンチマーク環境を提案する。
具体的には、最も広く受け入れられているアルゴリズムの一つであるPPOに着目し、先進的なトレーニング手法を提案する。
実験により,これらの成分をうまく組み合わせることで,有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2024-05-30T23:20:23Z) - Variational Autoencoders for exteroceptive perception in reinforcement learning-based collision avoidance [0.0]
Deep Reinforcement Learning (DRL) は有望な制御フレームワークとして登場した。
現在のDRLアルゴリズムは、ほぼ最適ポリシーを見つけるために不均等な計算資源を必要とする。
本稿では,海洋制御システムにおける提案手法の総合的な探索について述べる。
論文 参考訳(メタデータ) (2024-03-31T09:25:28Z) - Towards Deviation-Robust Agent Navigation via Perturbation-Aware
Contrastive Learning [125.61772424068903]
視覚言語ナビゲーション(VLN)は、エージェントに与えられた言語命令に従って実際の3D環境をナビゲートするように要求する。
本稿では,既存のVLNエージェントの一般化能力を高めるために,PROPER(Progressive Perturbation-aware Contrastive Learning)と呼ばれるモデルに依存しない学習パラダイムを提案する。
論文 参考訳(メタデータ) (2024-03-09T02:34:13Z) - DATT: Deep Adaptive Trajectory Tracking for Quadrotor Control [62.24301794794304]
Deep Adaptive Trajectory Tracking (DATT)は、学習に基づくアプローチであり、現実世界の大きな乱れの存在下で、任意の、潜在的に実現不可能な軌跡を正確に追跡することができる。
DATTは、非定常風場における可溶性および非実用性の両方の軌道に対して、競争適応性非線形およびモデル予測コントローラを著しく上回っている。
適応非線形モデル予測制御ベースラインの1/4未満である3.2ms未満の推論時間で、効率的にオンラインで実行することができる。
論文 参考訳(メタデータ) (2023-10-13T12:22:31Z) - 2-Level Reinforcement Learning for Ships on Inland Waterways: Path Planning and Following [0.0]
本稿では、深部強化学習(DRL)に基づく内陸水路(IW)における自動表面車両(ASV)の制御のための現実的なモジュール化フレームワークを提案する。
高レベルローカルパス計画(LPP)ユニットと低レベルパス追従(PF)ユニットの2つのレベルから構成され、それぞれDRLエージェントで構成されている。
論文 参考訳(メタデータ) (2023-07-25T08:42:59Z) - Efficient Deep Reinforcement Learning Requires Regulating Overfitting [91.88004732618381]
本稿では,高時間差(TD)誤差が深部RLアルゴリズムの性能に悪影響を及ぼす主要な原因であることを示す。
検証TDエラーをターゲットとした簡単なオンラインモデル選択法は,状態ベースDMCおよびGymタスク間で有効であることを示す。
論文 参考訳(メタデータ) (2023-04-20T17:11:05Z) - Using Deep Reinforcement Learning with Automatic Curriculum earning for
Mapless Navigation in Intralogistics [0.7633618497843278]
本稿では,倉庫シナリオにおけるマップレスナビゲーション問題を解決するための深層強化学習手法を提案する。
自動誘導車両は、LiDARと前頭RGBセンサーを備え、目標のドームの下に到達することを学ぶ。
NavACL-Qは、学習プロセス全体を大幅に促進し、事前訓練された特徴抽出器は、トレーニング速度を顕著に向上させる。
論文 参考訳(メタデータ) (2022-02-23T13:50:01Z) - Benchmarking Safe Deep Reinforcement Learning in Aquatic Navigation [78.17108227614928]
本研究では,水文ナビゲーションに着目した安全強化学習のためのベンチマーク環境を提案する。
価値に基づく政策段階の深層強化学習(DRL)について考察する。
また,学習したモデルの振る舞いを所望の特性の集合上で検証する検証戦略を提案する。
論文 参考訳(メタデータ) (2021-12-16T16:53:56Z) - Optimal control of point-to-point navigation in turbulent time-dependent
flows using Reinforcement Learning [0.0]
複素流体中の2点間の移動時間を最小化する経路を求める問題に関する理論的および数値的な結果を示す。
我々は、ActorCriticアルゴリズムが時間非依存またはカオス的に進化するフロー構成の存在下で準最適解を見つけることができることを示した。
論文 参考訳(メタデータ) (2021-02-27T21:31:18Z) - Efficient Reservoir Management through Deep Reinforcement Learning [36.89242259597806]
我々は,効率的なダム運転ガイドラインの計算に強化学習(RL)手法を利用する。
具体的には,実データを用いたオフラインシミュレータと,上流のインフローのための数学モデルを構築した。
実験の結果,DLM を用いたシミュレータは上流での流入動態を効率的にモデル化し,RL アルゴリズムで訓練されたダム運転ポリシーは人為的な政策よりも優れていた。
論文 参考訳(メタデータ) (2020-12-07T16:13:05Z) - DAIS: Automatic Channel Pruning via Differentiable Annealing Indicator
Search [55.164053971213576]
畳み込みニューラルネットワークは,計算オーバーヘッドが大きいにもかかわらず,コンピュータビジョンタスクの実行において大きな成功を収めている。
構造的(チャネル)プルーニングは、通常、ネットワーク構造を保ちながらモデルの冗長性を低減するために適用される。
既存の構造化プルーニング法では、手作りのルールが必要であり、これは大きなプルーニング空間に繋がる可能性がある。
論文 参考訳(メタデータ) (2020-11-04T07:43:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。