論文の概要: Self-Inspection Method of Unmanned Aerial Vehicles in Power Plants Using
Deep Q-Network Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2303.09013v1
- Date: Thu, 16 Mar 2023 00:58:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 17:23:15.968991
- Title: Self-Inspection Method of Unmanned Aerial Vehicles in Power Plants Using
Deep Q-Network Reinforcement Learning
- Title(参考訳): 深部qネットワーク強化学習による発電所内無人航空機の自己検査法
- Authors: Haoran Guan
- Abstract要約: 本研究は,UAV自律ナビゲーションとDQN強化学習を取り入れた発電所検査システムを提案する。
訓練されたモデルは、UAVが困難な環境で単独で移動できるようにすることで、検査戦略が実際に適用される可能性が高い。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: For the purpose of inspecting power plants, autonomous robots can be built
using reinforcement learning techniques. The method replicates the environment
and employs a simple reinforcement learning (RL) algorithm. This strategy might
be applied in several sectors, including the electricity generation sector. A
pre-trained model with perception, planning, and action is suggested by the
research. To address optimization problems, such as the Unmanned Aerial Vehicle
(UAV) navigation problem, Deep Q-network (DQN), a reinforcement learning-based
framework that Deepmind launched in 2015, incorporates both deep learning and
Q-learning. To overcome problems with current procedures, the research proposes
a power plant inspection system incorporating UAV autonomous navigation and DQN
reinforcement learning. These training processes set reward functions with
reference to states and consider both internal and external effect factors,
which distinguishes them from other reinforcement learning training techniques
now in use. The key components of the reinforcement learning segment of the
technique, for instance, introduce states such as the simulation of a wind
field, the battery charge level of an unmanned aerial vehicle, the height the
UAV reached, etc. The trained model makes it more likely that the inspection
strategy will be applied in practice by enabling the UAV to move around on its
own in difficult environments. The average score of the model converges to
9,000. The trained model allowed the UAV to make the fewest number of rotations
necessary to go to the target point.
- Abstract(参考訳): 発電所を検査するために、強化学習技術を用いて自律ロボットを構築することができる。
この方法は環境を再現し、単純な強化学習(RL)アルゴリズムを用いる。
この戦略は発電部門を含むいくつかの分野に適用される可能性がある。
本研究は, 知覚, 計画, 行動の事前学習モデルを提案する。
Unmanned Aerial Vehicle(UAV)ナビゲーション問題や、2015年にDeepmindがローンチした強化学習ベースのフレームワークであるDeep Q-network(DQN)など、最適化の問題に対処するためには、ディープラーニングとQラーニングの両方が組み込まれている。
そこで本研究では,uav自律ナビゲーションとdqn強化学習を組み合わせた電力プラント検査システムを提案する。
これらのトレーニングプロセスは、状態を参照して報酬関数を設定し、現在使用されている他の強化学習訓練技術と区別する内的および外的効果要因の両方を考慮する。
このテクニックの強化学習セグメントの重要な構成要素は、例えば、風場のシミュレーション、無人航空機の電池充電レベル、UAVが到達した高さなどの状態を導入することである。
訓練されたモデルは、UAVが困難な環境で単独で移動できるようにすることで、検査戦略が実際に適用される可能性が高い。
モデルの平均スコアは9,000に収束する。
訓練されたモデルにより、UAVは目標地点に向かうのに必要な最小の回転数を確保できた。
関連論文リスト
- Intercepting Unauthorized Aerial Robots in Controlled Airspace Using Reinforcement Learning [2.519319150166215]
制御空域における無人航空機(UAV)の増殖は重大なリスクをもたらす。
この作業は、強化学習(RL)を用いることで、そのような脅威を管理することのできる堅牢で適応的なシステムの必要性に対処する。
固定翼UAV追跡エージェントの訓練にRLを用いる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-07-09T14:45:47Z) - Aquatic Navigation: A Challenging Benchmark for Deep Reinforcement Learning [53.3760591018817]
ゲームエンジンとDeep Reinforcement Learningの統合の最近の進歩を利用して,水上ナビゲーションのための新しいベンチマーク環境を提案する。
具体的には、最も広く受け入れられているアルゴリズムの一つであるPPOに着目し、先進的なトレーニング手法を提案する。
実験により,これらの成分をうまく組み合わせることで,有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2024-05-30T23:20:23Z) - Modelling, Positioning, and Deep Reinforcement Learning Path Tracking
Control of Scaled Robotic Vehicles: Design and Experimental Validation [3.807917169053206]
スケールされたロボットカーは通常、車両の状態の推定と制御に特化したタスクを含む階層的な制御機構を備えている。
本稿では, (i) フェデレートされた拡張カルマンフィルタ (FEKF) と (ii) エキスパートデモレータを用いて訓練された新しい深部強化学習 (DRL) パストラッキングコントローラを提案する。
実験により検証されたモデルは、(i)FEKFの設計を支援するために使用され、(ii)DRLに基づく経路追跡アルゴリズムをトレーニングするためのデジタルツインとして機能する。
論文 参考訳(メタデータ) (2024-01-10T14:40:53Z) - Rethinking Closed-loop Training for Autonomous Driving [82.61418945804544]
本研究は,学習エージェントの成功に対する異なるトレーニングベンチマーク設計の影響を分析した最初の実証的研究である。
複数ステップのルックアヘッドで計画を行うRLベースの駆動エージェントであるtrajectory value learning (TRAVL)を提案する。
実験の結果,TRAVLはすべてのベースラインと比較してより速く学習でき,安全な操作が可能であることがわかった。
論文 参考訳(メタデータ) (2023-06-27T17:58:39Z) - Joint Path planning and Power Allocation of a Cellular-Connected UAV
using Apprenticeship Learning via Deep Inverse Reinforcement Learning [7.760962597460447]
本稿では,郊外環境におけるセルラー接続型無人航空機(UAV)の干渉対応共同経路計画と電力配分機構について検討する。
UAVは、そのアップリンクスループットを最大化し、近隣のBSに接続された地上ユーザ機器(UE)への干渉のレベルを最小化することを目的としている。
Q-learning と深層強化学習 (DRL) を併用した逆強化学習 (IRL) による見習い学習手法
論文 参考訳(メタデータ) (2023-06-15T20:50:05Z) - Reinforcement Learning for UAV control with Policy and Reward Shaping [0.7127008801193563]
本研究では,RLエージェントが報酬形成と政策形成を同時に行うことで,ドローンを制御できるように指導する。
その結果,両手法を同時に訓練したエージェントは,政策ベースアプローチのみを用いて訓練したエージェントよりも報酬が低いことがわかった。
論文 参考訳(メタデータ) (2022-12-06T14:46:13Z) - Deep Reinforcement Learning for Online Routing of Unmanned Aerial
Vehicles with Wireless Power Transfer [9.296415450289706]
無人航空機(UAV)は、輸送、軍事任務、災害救助、通信など様々な用途において重要な役割を担っている。
本稿では,無線電力伝送によるUAVオンラインルーティング問題を解決するための深層強化学習手法を提案する。
論文 参考訳(メタデータ) (2022-04-25T07:43:08Z) - Training and Evaluation of Deep Policies using Reinforcement Learning
and Generative Models [67.78935378952146]
GenRLはシーケンシャルな意思決定問題を解決するためのフレームワークである。
強化学習と潜在変数生成モデルの組み合わせを利用する。
最終方針訓練の性能に最も影響を与える生成モデルの特徴を実験的に決定する。
論文 参考訳(メタデータ) (2022-04-18T22:02:32Z) - Optimization for Master-UAV-powered Auxiliary-Aerial-IRS-assisted IoT
Networks: An Option-based Multi-agent Hierarchical Deep Reinforcement
Learning Approach [56.84948632954274]
本稿では,無人航空機(MUAV)搭載のIoT(Internet of Things)ネットワークについて検討する。
本稿では、インテリジェント反射面(IRS)を備えた充電可能な補助UAV(AUAV)を用いて、MUAVからの通信信号を強化することを提案する。
提案モデルでは,IoTネットワークの蓄積スループットを最大化するために,これらのエネルギー制限されたUAVの最適協調戦略について検討する。
論文 参考訳(メタデータ) (2021-12-20T15:45:28Z) - Transferable Deep Reinforcement Learning Framework for Autonomous
Vehicles with Joint Radar-Data Communications [69.24726496448713]
本稿では,AVの最適決定を支援するために,マルコフ決定プロセス(MDP)に基づくインテリジェントな最適化フレームワークを提案する。
そこで我々は,近年の深層強化学習技術を活用した効果的な学習アルゴリズムを開発し,AVの最適方針を見出す。
提案手法は,従来の深部強化学習手法と比較して,AVによる障害物ミス検出確率を最大67%削減することを示す。
論文 参考訳(メタデータ) (2021-05-28T08:45:37Z) - Efficient UAV Trajectory-Planning using Economic Reinforcement Learning [65.91405908268662]
UAV間でタスクを分散するための経済取引に触発された新しい強化学習アルゴリズムであるREPlannerを紹介します。
エージェントが協力し、リソースを競うことができるマルチエージェント経済ゲームとして、パス計画問題を策定します。
UAV協力によるタスク分布の計算を行うため、Swarmサイズの変化に対して非常に耐性が高い。
論文 参考訳(メタデータ) (2021-03-03T20:54:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。