論文の概要: 2-Level Reinforcement Learning for Ships on Inland Waterways
- arxiv url: http://arxiv.org/abs/2307.16769v2
- Date: Tue, 28 Nov 2023 14:27:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 15:25:50.019700
- Title: 2-Level Reinforcement Learning for Ships on Inland Waterways
- Title(参考訳): 内陸水路における船舶の2段階強化学習
- Authors: Martin Waltz, Niklas Paulig, Ostap Okhrin
- Abstract要約: このフレームワークは、高レベルローカルパス計画(LPP)ユニットと低レベルパス追従(PF)ユニットの2つのレベルから構成される。
LPPエージェントは、近くの船舶、交通規則、水路の幾何学を考慮に入れた経路を計画する責任がある。
PF剤は、浅い水の影響や環境力の風、波、電流を考慮しつつ、低レベルのアクチュエータ制御を行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposes a realistic modularized framework for controlling
autonomous surface vehicles (ASVs) on inland waterways (IWs) based on deep
reinforcement learning (DRL). The framework comprises two levels: a high-level
local path planning (LPP) unit and a low-level path following (PF) unit, each
consisting of a DRL agent. The LPP agent is responsible for planning a path
under consideration of nearby vessels, traffic rules, and the geometry of the
waterway. We thereby transfer a recently proposed spatial-temporal recurrent
neural network architecture to continuous action spaces. The LPP agent improves
operational safety in comparison to a state-of-the-art artificial potential
field method by increasing the minimum distance to other vessels by 65% on
average. The PF agent performs low-level actuator control while accounting for
shallow water influences and the environmental forces winds, waves, and
currents. Compared with a proportional-integral-derivative (PID) controller,
the PF agent yields only 61% of the mean cross-track error while significantly
reducing control effort in terms of the required absolute rudder angle. Lastly,
both agents are jointly validated in simulation, employing the lower Elbe in
northern Germany as an example case and using real automatic identification
system (AIS) trajectories to model the behavior of other ships.
- Abstract(参考訳): 本稿では、深部強化学習(DRL)に基づく内陸水路(IW)における自動表面車両(ASV)制御のための現実的なモジュール化フレームワークを提案する。
高レベルローカルパス計画(LPP)ユニットと低レベルパス追従(PF)ユニットの2つのレベルで構成され、それぞれDRLエージェントで構成されている。
LPPエージェントは、近くの船舶、交通規則、水路の幾何学を考慮に入れた経路を計画する責任がある。
これにより、最近提案された時空間リカレントニューラルネットワークアーキテクチャを連続的な行動空間に転送する。
lpp剤は、他の船舶との最小距離を平均65%増加させることで、最先端人工電位法と比較して運用安全性を向上させる。
pfエージェントは、浅い水の影響と環境風、波、電流を考慮しつつ、低レベルのアクチュエータ制御を行う。
比例積分導波管(PID)コントローラと比較して、PFエージェントは平均クロストラック誤差の61%しか得られず、必要な絶対舵角の制御力を著しく低減する。
最後に、両方のエージェントはシミュレーションにおいて共同で検証され、北ドイツのエルベを例に挙げ、他の船の挙動をモデル化するために実際の自動識別システム(AIS)トラジェクトリを使用する。
関連論文リスト
- Navigation in a simplified Urban Flow through Deep Reinforcement Learning [0.9217021281095907]
都市環境における無人航空機(UAV)は、環境への影響を最小限に抑える戦略を必要とする。
我々の目標は、都市環境下での無人航法を可能にするDRLアルゴリズムを開発することである。
論文 参考訳(メタデータ) (2024-09-26T15:05:15Z) - AD-H: Autonomous Driving with Hierarchical Agents [64.49185157446297]
我々は,ハイレベル命令と低レベル制御信号を中間言語駆動の命令に接続することを提案する。
我々は、AD-Hという階層型マルチエージェント駆動システムを用いて、このアイデアを実装した。
論文 参考訳(メタデータ) (2024-06-05T17:25:46Z) - Safety Aware Autonomous Path Planning Using Model Predictive
Reinforcement Learning for Inland Waterways [2.0623470039259946]
モデル予測強化学習(MPRL)と呼ばれる強化学習に基づく新しい経路計画手法を提案する。
MPRLは、船が従うための一連のウェイポイントを計算する。
提案手法を2つのシナリオで実証し,Frenetフレームを用いた経路計画とPPOエージェントに基づく経路計画との比較を行った。
論文 参考訳(メタデータ) (2023-11-16T13:12:58Z) - ETPNav: Evolving Topological Planning for Vision-Language Navigation in
Continuous Environments [56.194988818341976]
視覚言語ナビゲーションは、エージェントが環境中をナビゲートするための指示に従う必要があるタスクである。
本研究では,1)環境を抽象化し,長距離航法計画を生成する能力,2)連続環境における障害物回避制御能力の2つの重要なスキルに焦点を当てたETPNavを提案する。
ETPNavは、R2R-CEとRxR-CEデータセットの先行技術よりも10%以上、20%改善されている。
論文 参考訳(メタデータ) (2023-04-06T13:07:17Z) - Robust Path Following on Rivers Using Bootstrapped Reinforcement
Learning [0.0]
本稿では,内陸海域における自律型表面容器(ASV)の航行制御のための深層強化学習(DRL)エージェントを開発した。
最先端のブートストラップ付きQ-ラーニングアルゴリズムと多用途のトレーニング環境ジェネレータを組み合わせることで、堅牢で正確な舵制御を実現する。
論文 参考訳(メタデータ) (2023-03-24T07:21:27Z) - SEA: Bridging the Gap Between One- and Two-stage Detector Distillation
via SEmantic-aware Alignment [76.80165589520385]
細粒度情報を抽象化する性質から,SEA (SEmantic-Aware Alignment) 蒸留法を命名した。
1段検出器と2段検出器の両方において、挑戦的な物体検出タスクにおいて、最先端の新たな結果が得られる。
論文 参考訳(メタデータ) (2022-03-02T04:24:05Z) - Risk-based implementation of COLREGs for autonomous surface vehicles
using deep reinforcement learning [1.304892050913381]
深層強化学習(DRL)は幅広い応用の可能性を示している。
本研究は,海上衝突防止国際規則(COLREG)のサブセットをDRLに基づく経路追従と障害物回避システムに組み込んだものである。
得られた自律エージェントは、訓練シナリオ、孤立した遭遇状況、実世界のシナリオのAISに基づくシミュレーションにおいて、経路追従とCOLREG準拠の衝突回避を動的に補間する。
論文 参考訳(メタデータ) (2021-11-30T21:32:59Z) - Trajectory Planning for Autonomous Vehicles Using Hierarchical
Reinforcement Learning [21.500697097095408]
不確実かつ動的条件下で安全な軌道を計画することは、自律運転問題を著しく複雑にする。
RRT(Rapidly Exploring Random Trees)のような現在のサンプリングベース手法は、高い計算コストのため、この問題には理想的ではない。
軌道計画のための階層型強化学習構造とPID(Proportional-Integral-Derivative)コントローラを提案する。
論文 参考訳(メタデータ) (2020-11-09T20:49:54Z) - Optimization-driven Deep Reinforcement Learning for Robust Beamforming
in IRS-assisted Wireless Communications [54.610318402371185]
Intelligent Reflecting Surface (IRS)は、マルチアンテナアクセスポイント(AP)から受信機へのダウンリンク情報伝達を支援する有望な技術である。
我々は、APのアクティブビームフォーミングとIRSのパッシブビームフォーミングを共同最適化することで、APの送信電力を最小化する。
過去の経験からビームフォーミング戦略に適応できる深層強化学習(DRL)手法を提案する。
論文 参考訳(メタデータ) (2020-05-25T01:42:55Z) - Model-based Reinforcement Learning for Decentralized Multiagent
Rendezvous [66.6895109554163]
目標を他のエージェントと整合させる人間の能力の下にあるのは、他人の意図を予測し、自分たちの計画を積極的に更新する能力である。
分散型マルチエージェントレンデブーのためのモデルに基づく強化学習手法である階層型予測計画(HPP)を提案する。
論文 参考訳(メタデータ) (2020-03-15T19:49:20Z) - Federated Learning in the Sky: Joint Power Allocation and Scheduling
with UAV Swarms [98.78553146823829]
無人航空機(UAV)は様々なタスクを実行するために機械学習(ML)を利用する必要がある。
本稿では,UAVスワム内に分散学習(FL)アルゴリズムを実装するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T14:04:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。