論文の概要: Self-Inspection Method of Unmanned Aerial Vehicles in Power Plants Using
Deep Q-Network Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2303.09013v1
- Date: Thu, 16 Mar 2023 00:58:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 17:23:15.968991
- Title: Self-Inspection Method of Unmanned Aerial Vehicles in Power Plants Using
Deep Q-Network Reinforcement Learning
- Title(参考訳): 深部qネットワーク強化学習による発電所内無人航空機の自己検査法
- Authors: Haoran Guan
- Abstract要約: 本研究は,UAV自律ナビゲーションとDQN強化学習を取り入れた発電所検査システムを提案する。
訓練されたモデルは、UAVが困難な環境で単独で移動できるようにすることで、検査戦略が実際に適用される可能性が高い。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: For the purpose of inspecting power plants, autonomous robots can be built
using reinforcement learning techniques. The method replicates the environment
and employs a simple reinforcement learning (RL) algorithm. This strategy might
be applied in several sectors, including the electricity generation sector. A
pre-trained model with perception, planning, and action is suggested by the
research. To address optimization problems, such as the Unmanned Aerial Vehicle
(UAV) navigation problem, Deep Q-network (DQN), a reinforcement learning-based
framework that Deepmind launched in 2015, incorporates both deep learning and
Q-learning. To overcome problems with current procedures, the research proposes
a power plant inspection system incorporating UAV autonomous navigation and DQN
reinforcement learning. These training processes set reward functions with
reference to states and consider both internal and external effect factors,
which distinguishes them from other reinforcement learning training techniques
now in use. The key components of the reinforcement learning segment of the
technique, for instance, introduce states such as the simulation of a wind
field, the battery charge level of an unmanned aerial vehicle, the height the
UAV reached, etc. The trained model makes it more likely that the inspection
strategy will be applied in practice by enabling the UAV to move around on its
own in difficult environments. The average score of the model converges to
9,000. The trained model allowed the UAV to make the fewest number of rotations
necessary to go to the target point.
- Abstract(参考訳): 発電所を検査するために、強化学習技術を用いて自律ロボットを構築することができる。
この方法は環境を再現し、単純な強化学習(RL)アルゴリズムを用いる。
この戦略は発電部門を含むいくつかの分野に適用される可能性がある。
本研究は, 知覚, 計画, 行動の事前学習モデルを提案する。
Unmanned Aerial Vehicle(UAV)ナビゲーション問題や、2015年にDeepmindがローンチした強化学習ベースのフレームワークであるDeep Q-network(DQN)など、最適化の問題に対処するためには、ディープラーニングとQラーニングの両方が組み込まれている。
そこで本研究では,uav自律ナビゲーションとdqn強化学習を組み合わせた電力プラント検査システムを提案する。
これらのトレーニングプロセスは、状態を参照して報酬関数を設定し、現在使用されている他の強化学習訓練技術と区別する内的および外的効果要因の両方を考慮する。
このテクニックの強化学習セグメントの重要な構成要素は、例えば、風場のシミュレーション、無人航空機の電池充電レベル、UAVが到達した高さなどの状態を導入することである。
訓練されたモデルは、UAVが困難な環境で単独で移動できるようにすることで、検査戦略が実際に適用される可能性が高い。
モデルの平均スコアは9,000に収束する。
訓練されたモデルにより、UAVは目標地点に向かうのに必要な最小の回転数を確保できた。
関連論文リスト
- Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Reinforcement Learning for UAV control with Policy and Reward Shaping [0.7127008801193563]
本研究では,RLエージェントが報酬形成と政策形成を同時に行うことで,ドローンを制御できるように指導する。
その結果,両手法を同時に訓練したエージェントは,政策ベースアプローチのみを用いて訓練したエージェントよりも報酬が低いことがわかった。
論文 参考訳(メタデータ) (2022-12-06T14:46:13Z) - Deep Reinforcement Learning for Task Offloading in UAV-Aided Smart Farm
Networks [3.6118662460334527]
我々は、この多目的問題を解決するために、Deep Q-Learning(DQL)アプローチを導入する。
提案手法は,UAVの残量と期限違反率に関して,同等の結果が得られることを示す。
論文 参考訳(メタデータ) (2022-09-15T15:29:57Z) - Deep Reinforcement Learning for Online Routing of Unmanned Aerial
Vehicles with Wireless Power Transfer [9.296415450289706]
無人航空機(UAV)は、輸送、軍事任務、災害救助、通信など様々な用途において重要な役割を担っている。
本稿では,無線電力伝送によるUAVオンラインルーティング問題を解決するための深層強化学習手法を提案する。
論文 参考訳(メタデータ) (2022-04-25T07:43:08Z) - Training and Evaluation of Deep Policies using Reinforcement Learning
and Generative Models [67.78935378952146]
GenRLはシーケンシャルな意思決定問題を解決するためのフレームワークである。
強化学習と潜在変数生成モデルの組み合わせを利用する。
最終方針訓練の性能に最も影響を与える生成モデルの特徴を実験的に決定する。
論文 参考訳(メタデータ) (2022-04-18T22:02:32Z) - Optimization for Master-UAV-powered Auxiliary-Aerial-IRS-assisted IoT
Networks: An Option-based Multi-agent Hierarchical Deep Reinforcement
Learning Approach [56.84948632954274]
本稿では,無人航空機(MUAV)搭載のIoT(Internet of Things)ネットワークについて検討する。
本稿では、インテリジェント反射面(IRS)を備えた充電可能な補助UAV(AUAV)を用いて、MUAVからの通信信号を強化することを提案する。
提案モデルでは,IoTネットワークの蓄積スループットを最大化するために,これらのエネルギー制限されたUAVの最適協調戦略について検討する。
論文 参考訳(メタデータ) (2021-12-20T15:45:28Z) - Transferable Deep Reinforcement Learning Framework for Autonomous
Vehicles with Joint Radar-Data Communications [69.24726496448713]
本稿では,AVの最適決定を支援するために,マルコフ決定プロセス(MDP)に基づくインテリジェントな最適化フレームワークを提案する。
そこで我々は,近年の深層強化学習技術を活用した効果的な学習アルゴリズムを開発し,AVの最適方針を見出す。
提案手法は,従来の深部強化学習手法と比較して,AVによる障害物ミス検出確率を最大67%削減することを示す。
論文 参考訳(メタデータ) (2021-05-28T08:45:37Z) - Efficient UAV Trajectory-Planning using Economic Reinforcement Learning [65.91405908268662]
UAV間でタスクを分散するための経済取引に触発された新しい強化学習アルゴリズムであるREPlannerを紹介します。
エージェントが協力し、リソースを競うことができるマルチエージェント経済ゲームとして、パス計画問題を策定します。
UAV協力によるタスク分布の計算を行うため、Swarmサイズの変化に対して非常に耐性が高い。
論文 参考訳(メタデータ) (2021-03-03T20:54:19Z) - UAV Path Planning for Wireless Data Harvesting: A Deep Reinforcement
Learning Approach [18.266087952180733]
本稿では,IoT(Internet of Things)デバイスからのUAV対応データ収集に対するエンドツーエンド強化学習手法を提案する。
自律ドローンは、限られた飛行時間と障害物回避を受ける分散センサーノードからデータを収集する。
提案するネットワークアーキテクチャにより,エージェントが様々なシナリオパラメータの移動決定を行うことができることを示す。
論文 参考訳(メタデータ) (2020-07-01T15:14:16Z) - Using Deep Reinforcement Learning Methods for Autonomous Vessels in 2D
Environments [11.657524999491029]
本研究では,Q-Learningとニューラル表現を組み合わせた深層強化学習を用いて不安定性を回避する。
当社の方法論では,Q-Learningを深く使用して,アジャイル方法論のローリングウェーブプランニングアプローチと組み合わせています。
実験の結果,VVNの長距離ミッションの平均性能は55.31倍に向上した。
論文 参考訳(メタデータ) (2020-03-23T12:58:58Z) - Enhanced Adversarial Strategically-Timed Attacks against Deep
Reinforcement Learning [91.13113161754022]
本稿では,DRLに基づくナビゲーションシステムに対して,選択した時間フレーム上の物理ノイズパターンを妨害することにより,タイミングに基づく逆方向戦略を導入する。
実験結果から, 対向タイミング攻撃は性能低下を引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2020-02-20T21:39:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。