論文の概要: 2-Level Reinforcement Learning for Ships on Inland Waterways
- arxiv url: http://arxiv.org/abs/2307.16769v1
- Date: Tue, 25 Jul 2023 08:42:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-06 11:21:18.801121
- Title: 2-Level Reinforcement Learning for Ships on Inland Waterways
- Title(参考訳): 内陸水路における船舶の2段階強化学習
- Authors: Martin Waltz, Niklas Paulig, Ostap Okhrin
- Abstract要約: 本稿では、深部強化学習(DRL)に基づく内陸水路(IW)における自動表面車両(ASV)の制御のための現実的なモジュール化フレームワークを提案する。
フレームワークは、高レベルローカルパス計画(LPP)ユニットと低レベルパス追従(PF)ユニットの2つのレベルで構成され、それぞれDRLエージェントで構成されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposes a realistic modularized framework for controlling
autonomous surface vehicles (ASVs) on inland waterways (IWs) based on deep
reinforcement learning (DRL). The framework comprises two levels: a high-level
local path planning (LPP) unit and a low-level path following (PF) unit, each
consisting of a DRL agent. The LPP agent is responsible for planning a path
under consideration of nearby vessels, traffic rules, and the geometry of the
waterway. We thereby leverage a recently proposed spatial-temporal recurrent
neural network architecture, which is transferred to continuous action spaces.
The PF agent is responsible for low-level actuator control while accounting for
shallow water influences on the marine craft and the environmental forces
winds, waves, and currents. Both agents are thoroughly validated in simulation,
employing the lower Elbe in northern Germany as an example case and using real
AIS trajectories to model the behavior of other ships.
- Abstract(参考訳): 本稿では、深部強化学習(DRL)に基づく内陸水路(IW)における自動表面車両(ASV)制御のための現実的なモジュール化フレームワークを提案する。
高レベルローカルパス計画(LPP)ユニットと低レベルパス追従(PF)ユニットの2つのレベルで構成され、それぞれDRLエージェントで構成されている。
LPPエージェントは、近くの船舶、交通規則、水路の幾何学を考慮に入れた経路を計画する責任がある。
これにより,最近提案されている空間-時間的リカレントニューラルネットワークアーキテクチャを,連続的な動作空間に転送する。
PFエージェントは、船舶および環境力の風、波、電流に対する浅い水の影響を考慮しつつ、低レベルのアクチュエータ制御を担っている。
どちらのエージェントもシミュレーションで徹底的に検証されており、ドイツ北部のエルベ低地を例に挙げ、実際のAIS軌道を用いて他の船の挙動をモデル化している。
関連論文リスト
- Sim-to-Real Transfer of Adaptive Control Parameters for AUV
Stabilization under Current Disturbance [1.099532646524593]
本稿では,最大エントロピー深層強化学習フレームワークを古典的なモデルベース制御アーキテクチャと組み合わせ,適応制御系を定式化する新しい手法を提案する。
本フレームワークでは,バイオインスパイアされた体験再生機構,拡張されたドメインランダム化手法,物理プラットフォーム上で実行される評価プロトコルなどを含むSim-to-Real転送戦略を導入する。
実験により,AUVの準最適モデルから有能なポリシを効果的に学習し,実車への移動時の制御性能を3倍に向上することを示した。
論文 参考訳(メタデータ) (2023-10-17T08:46:56Z) - iPLAN: Intent-Aware Planning in Heterogeneous Traffic via Distributed
Multi-Agent Reinforcement Learning [57.24340061741223]
本稿では,高密度および不均一な交通シナリオにおける軌跡や意図を予測できる分散マルチエージェント強化学習(MARL)アルゴリズムを提案する。
インテント対応プランニングのアプローチであるiPLANにより、エージェントは近くのドライバーの意図をローカルな観察からのみ推測できる。
論文 参考訳(メタデータ) (2023-06-09T20:12:02Z) - Robust Path Following on Rivers Using Bootstrapped Reinforcement
Learning [0.0]
本稿では,内陸海域における自律型表面容器(ASV)の航行制御のための深層強化学習(DRL)エージェントを開発した。
最先端のブートストラップ付きQ-ラーニングアルゴリズムと多用途のトレーニング環境ジェネレータを組み合わせることで、堅牢で正確な舵制御を実現する。
論文 参考訳(メタデータ) (2023-03-24T07:21:27Z) - Learned Risk Metric Maps for Kinodynamic Systems [54.49871675894546]
本研究では,高次元力学系のコヒーレントリスクメトリクスをリアルタイムに推定するための学習型リスクメトリクスマップを提案する。
LRMMモデルは設計と訓練が簡単で、障害セットの手続き的生成、状態と制御のサンプリング、および関数近似器の教師付きトレーニングのみを必要とする。
論文 参考訳(メタデータ) (2023-02-28T17:51:43Z) - Smooth Trajectory Collision Avoidance through Deep Reinforcement
Learning [0.0]
本稿では,DRLに基づくナビゲーションソリューションにおける2つの重要な問題に対処するために,エージェントの状態と報酬関数の設計を提案する。
我々のモデルは、衝突の可能性を著しく低減しつつ、UAVのスムーズな飛行を確保するために、マージンの報酬と滑らかさの制約に依存している。
論文 参考訳(メタデータ) (2022-10-12T16:27:32Z) - Deep Reinforcement Learning Aided Platoon Control Relying on V2X
Information [78.18186960475974]
車両間通信(V2X)が小隊制御性能に及ぼす影響について検討した。
我々の目的は、最も適切な状態空間を構築するために、車両間で共有されるべき特定の情報の集合を見つけることである。
状態空間に含めると、より高い状態次元を持つ負の効果を相殺する確率が高いため、より有益な情報が伝達においてより高い優先度で与えられる。
論文 参考訳(メタデータ) (2022-03-28T02:11:54Z) - Risk-based implementation of COLREGs for autonomous surface vehicles
using deep reinforcement learning [1.304892050913381]
深層強化学習(DRL)は幅広い応用の可能性を示している。
本研究は,海上衝突防止国際規則(COLREG)のサブセットをDRLに基づく経路追従と障害物回避システムに組み込んだものである。
得られた自律エージェントは、訓練シナリオ、孤立した遭遇状況、実世界のシナリオのAISに基づくシミュレーションにおいて、経路追従とCOLREG準拠の衝突回避を動的に補間する。
論文 参考訳(メタデータ) (2021-11-30T21:32:59Z) - Optimizing Mixed Autonomy Traffic Flow With Decentralized Autonomous
Vehicles and Multi-Agent RL [63.52264764099532]
本研究では、完全分散制御方式を用いて、混合自律環境でのボトルネックのスループットを向上させる自動運転車の能力について検討する。
この問題にマルチエージェント強化アルゴリズムを適用し、5%の浸透速度で20%から40%の浸透速度で33%までのボトルネックスループットの大幅な改善が達成できることを実証した。
論文 参考訳(メタデータ) (2020-10-30T22:06:05Z) - COLREG-Compliant Collision Avoidance for Unmanned Surface Vehicle using
Deep Reinforcement Learning [0.0]
追従と衝突回避は、無人表面船や他の自動運転車にとって、ロボット工学における2つの基本的なガイダンス問題である。
本稿では,連続制御タスクにおける最先端性能を示すDRLアルゴリズムであるPPOの可能性について検討する。
ノルウェー海の入り江であるトロンドハイム・フィヨルド(Trondheim Fjord)の高忠実な標高とAIS追跡データに基づいて、我々は訓練されたエージェントのパフォーマンスを挑戦的でダイナミックな実世界のシナリオで評価した。
論文 参考訳(メタデータ) (2020-06-16T22:05:58Z) - Model-based Reinforcement Learning for Decentralized Multiagent
Rendezvous [66.6895109554163]
目標を他のエージェントと整合させる人間の能力の下にあるのは、他人の意図を予測し、自分たちの計画を積極的に更新する能力である。
分散型マルチエージェントレンデブーのためのモデルに基づく強化学習手法である階層型予測計画(HPP)を提案する。
論文 参考訳(メタデータ) (2020-03-15T19:49:20Z) - Federated Learning in the Sky: Joint Power Allocation and Scheduling
with UAV Swarms [98.78553146823829]
無人航空機(UAV)は様々なタスクを実行するために機械学習(ML)を利用する必要がある。
本稿では,UAVスワム内に分散学習(FL)アルゴリズムを実装するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T14:04:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。