論文の概要: Deep Reinforcement Multi-agent Learning framework for Information
Gathering with Local Gaussian Processes for Water Monitoring
- arxiv url: http://arxiv.org/abs/2401.04631v1
- Date: Tue, 9 Jan 2024 15:58:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-10 15:24:43.986933
- Title: Deep Reinforcement Multi-agent Learning framework for Information
Gathering with Local Gaussian Processes for Water Monitoring
- Title(参考訳): 水モニタリングのための局所ガウス過程を用いた情報収集のための深層強化マルチエージェント学習フレームワーク
- Authors: Samuel Yanes Luis, Dmitriy Shutin, Juan Marchal G\'omez, Daniel
Guti\'errez Reina, Sergio Toral Mar\'in
- Abstract要約: 局所ガウス過程と深層強化学習を用いて効果的なモニタリングポリシを共同で取得することが提案されている。
このモデルの平均と分散の観察に基づく決定に基づく、深い畳み込み政策が提案されている。
エージェントはDouble Deep Q-Learningアルゴリズムを用いて、安全な方法で推定誤差を最小限に抑えるように訓練される。
- 参考スコア(独自算出の注目度): 3.2266662249755025
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The conservation of hydrological resources involves continuously monitoring
their contamination. A multi-agent system composed of autonomous surface
vehicles is proposed in this paper to efficiently monitor the water quality. To
achieve a safe control of the fleet, the fleet policy should be able to act
based on measurements and to the the fleet state. It is proposed to use Local
Gaussian Processes and Deep Reinforcement Learning to jointly obtain effective
monitoring policies. Local Gaussian processes, unlike classical global Gaussian
processes, can accurately model the information in a dissimilar spatial
correlation which captures more accurately the water quality information. A
Deep convolutional policy is proposed, that bases the decisions on the
observation on the mean and variance of this model, by means of an information
gain reward. Using a Double Deep Q-Learning algorithm, agents are trained to
minimize the estimation error in a safe manner thanks to a Consensus-based
heuristic. Simulation results indicate an improvement of up to 24% in terms of
the mean absolute error with the proposed models. Also, training results with
1-3 agents indicate that our proposed approach returns 20% and 24% smaller
average estimation errors for, respectively, monitoring water quality variables
and monitoring algae blooms, as compared to state-of-the-art approaches
- Abstract(参考訳): 水資源の保存には、汚染を継続的に監視することが含まれる。
本論文では, 自律型表面車両からなるマルチエージェントシステムを提案し, 水質を効率的に監視する。
艦隊の安全な制御を達成するために、艦隊の方針は、測定値と艦隊状態に基づいて行動できるべきである。
局所ガウス過程と深層強化学習を用いて効果的なモニタリングポリシを共同で取得することが提案されている。
局所ガウス過程は、古典的大域ガウス過程とは異なり、水質情報をより正確に捉える異質な空間相関で正確な情報をモデル化することができる。
情報ゲイン報酬(information gain reward)を用いて、このモデルの平均と分散の観察に基づく決定を基礎とする深層畳み込み政策が提案される。
二重深層q学習アルゴリズムを用いて、エージェントはコンセンサスに基づくヒューリスティックによって、安全な方法で推定誤差を最小化するように訓練される。
シミュレーションの結果,提案モデルの平均絶対誤差は最大24%向上した。
また,1~3エージェントによるトレーニングの結果から,提案手法は水質変数のモニタリングと藻の開花の監視において,平均推定誤差が20%,24%小さくなることが示された。
関連論文リスト
- Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - Monitoring water contaminants in coastal areas through ML algorithms
leveraging atmospherically corrected Sentinel-2 data [3.155658695525581]
本研究では,CatBoost Machine Learning(ML)とSentinel-2 Level-2Aの高分解能データを統合することにより,濁度汚染をモニタリングする新たなアプローチを開拓した。
従来の方法は労働集約的であり、CatBoostは効率的なソリューションを提供し、予測精度に優れている。
大気補正されたSentinel-2データをGoogle Earth Engine(GEE)を通じて利用することで、スケーラブルで正確な濁度モニタリングに寄与する。
論文 参考訳(メタデータ) (2024-01-08T10:20:34Z) - Over-the-Air Federated Learning and Optimization [52.5188988624998]
エッジ・ザ・エア計算(AirComp)によるフェデレーション学習(FL)に焦点を当てる。
本稿では,AirComp ベースの FedAvg (AirFedAvg) アルゴリズムの凸および非凸条件下での収束について述べる。
エッジデバイス(モデル、勾配、モデル差など)で送信できるローカルアップデートの種類によって、AirFedAvgで送信するとアグリゲーションエラーが発生する可能性がある。
さらに、より実用的な信号処理方式を検討し、通信効率を改善し、これらの信号処理方式によって引き起こされるモデル集約誤差の異なる形式に収束解析を拡張する。
論文 参考訳(メタデータ) (2023-10-16T05:49:28Z) - Mutual Wasserstein Discrepancy Minimization for Sequential
Recommendation [82.0801585843835]
逐次リコメンデーションのためのMutual WasserStein差分最小化MSteinに基づく新しい自己教師型学習フレームワークを提案する。
また,ワッサーシュタイン離散度測定に基づく新しい学習損失を提案する。
論文 参考訳(メタデータ) (2023-01-28T13:38:48Z) - AquaFeL-PSO: A Monitoring System for Water Resources using Autonomous
Surface Vehicles based on Multimodal PSO and Federated Learning [0.0]
水資源の保存、モニタリング、管理は、ここ数十年で大きな課題となっている。
本稿では,水質センサを備えた自動表面車両を用いた水質モニタリングシステムを提案する。
論文 参考訳(メタデータ) (2022-11-28T10:56:12Z) - Censored Deep Reinforcement Patrolling with Information Criterion for
Monitoring Large Water Resources using Autonomous Surface Vehicles [0.0]
本研究は,自律走行車を用いた大規模水資源モニタリングの枠組みを提案する。
データに対する不確実性低減の尺度として情報ゲインを用いて,モデルに基づく障害物回避のためのQ-Censoring機構によって改良されたディープQ-ラーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-12T07:33:46Z) - Stochastic optimal well control in subsurface reservoirs using
reinforcement learning [0.0]
本稿では,パラメータの不確実性分布の最適制御を行うためのモデルフリー強化学習フレームワークのケーススタディを提案する。
原理的には、RLアルゴリズムは数値報酬信号の最大化のために最適な行動ポリシーを学習することができる。
提案手法は,2つの水面流動試験ケースに対して,2つの最先端RLアルゴリズム,PPO,A2Cを用いて数値計算を行った。
論文 参考訳(メタデータ) (2022-07-07T17:34:23Z) - Deep Learning for Prawn Farming: Forecasting and Anomaly Detection [1.7324358447544173]
エビ池における水質管理のための意思決定支援システムを提案する。
このシステムは, 様々なデータソースと深層学習モデルを用いて, 水質パラメータの24時間予測と異常検出を行う。
論文 参考訳(メタデータ) (2022-05-12T20:52:30Z) - Efficient Model-based Multi-agent Reinforcement Learning via Optimistic
Equilibrium Computation [93.52573037053449]
H-MARL (Hallucinated Multi-Agent Reinforcement Learning) は,環境と数回交流した後の平衡政策を学習する。
自律運転シミュレーションベンチマークにおいて,本手法を実験的に実証した。
論文 参考訳(メタデータ) (2022-03-14T17:24:03Z) - Benchmarking Safe Deep Reinforcement Learning in Aquatic Navigation [78.17108227614928]
本研究では,水文ナビゲーションに着目した安全強化学習のためのベンチマーク環境を提案する。
価値に基づく政策段階の深層強化学習(DRL)について考察する。
また,学習したモデルの振る舞いを所望の特性の集合上で検証する検証戦略を提案する。
論文 参考訳(メタデータ) (2021-12-16T16:53:56Z) - Learning Robust Output Control Barrier Functions from Safe Expert Demonstrations [50.37808220291108]
本稿では,専門家によるデモンストレーションの部分的な観察から,安全な出力フィードバック制御法を考察する。
まず,安全性を保証する手段として,ロバスト出力制御バリア関数(ROCBF)を提案する。
次に、安全なシステム動作を示す専門家による実証からROCBFを学習するための最適化問題を定式化する。
論文 参考訳(メタデータ) (2021-11-18T23:21:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。