論文の概要: Q-NAV: NAV Setting Method based on Reinforcement Learning in Underwater
Wireless Networks
- arxiv url: http://arxiv.org/abs/2005.13521v1
- Date: Thu, 21 May 2020 14:15:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 00:12:36.693289
- Title: Q-NAV: NAV Setting Method based on Reinforcement Learning in Underwater
Wireless Networks
- Title(参考訳): Q-NAV:水中無線ネットワークにおける強化学習に基づくNAV設定手法
- Authors: Seok-Hyeon Park, Ohyun Jo
- Abstract要約: 水中環境の特徴から水中無線通信には多くの問題がある。
本稿では,ALOHA-Qに基づく新しい手法を提案する。提案手法はランダムなNAV値を用いており,環境はコミュニケーションの成功や失敗を通じて報酬を得る。
このモデルは、水中無線ネットワーク下でのエネルギーと計算資源の使用を最小化し、強烈な学習を通じてNAV値を学び、設定する。
- 参考スコア(独自算出の注目度): 0.9137554315375922
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The demand on the underwater communications is extremely increasing in
searching for underwater resources, marine expedition, or environmental
researches, yet there are many problems with the wireless communications
because of the characteristics of the underwater environments. Especially, with
the underwater wireless networks, there happen inevitable delay time and
spacial inequality due to the distances between the nodes. To solve these
problems, this paper suggests a new solution based on ALOHA-Q. The suggested
method use random NAV value. and Environments take reward through
communications success or fail. After then, The environments setting NAV value
from reward. This model minimizes usage of energy and computing resources under
the underwater wireless networks, and learns and setting NAV values through
intense learning. The results of the simulations show that NAV values can be
environmentally adopted and select best value to the circumstances, so the
problems which are unnecessary delay times and spacial inequality can be
solved. Result of simulations, NAV time decreasing 17.5% compared with original
NAV.
- Abstract(参考訳): 水中の資源探索や海洋探検、環境研究において、水中での通信の需要は著しく増加しているが、水中環境の特徴から、無線通信には多くの問題がある。
特に、水中無線ネットワークでは、ノード間の距離によって避けられない遅延時間と空間的不平等が発生する。
これらの問題を解決するために,ALOHA-Qに基づく新しい解を提案する。
提案手法はランダムなNAV値を用いる。
環境はコミュニケーションの成功または失敗を通じて報奨を受けます。
その後、報酬からNAV値を設定する環境。
このモデルは、水中無線ネットワークにおけるエネルギーと計算資源の使用を最小化し、強烈な学習を通じてNAV値を学び、設定する。
シミュレーションの結果,NAV値は環境に適応し,環境に最適な値を選択することが可能であり,不必要な遅延時間や空間不平等を解消できることがわかった。
シミュレーションの結果、NAV時間はオリジナルのNAVと比較して17.5%減少した。
関連論文リスト
- Low-altitude Friendly-Jamming for Satellite-Maritime Communications via Generative AI-enabled Deep Reinforcement Learning [72.72954660774002]
低地球軌道(LEO)衛星は、海上無線通信で広範囲にわたるデータ通信を支援するために使用できる。
LEO衛星を広範囲にカバーし、チャネルの開放性と組み合わせることで、通信プロセスはセキュリティ上のリスクに悩まされる可能性がある。
本稿では無人航空機による低高度衛星通信システムLEOについて述べる。
論文 参考訳(メタデータ) (2025-01-26T10:13:51Z) - Joint Admission Control and Resource Allocation of Virtual Network Embedding via Hierarchical Deep Reinforcement Learning [69.00997996453842]
本稿では,仮想ネットワークの埋め込みにおいて,入出力制御と資源配分を併用して学習する深層強化学習手法を提案する。
HRL-ACRAは,受入率と長期平均収益の両面で,最先端のベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2024-06-25T07:42:30Z) - YOLO series target detection algorithms for underwater environments [0.0]
You Only Look Once (YOLO)アルゴリズムは、計算速度と精度のバランスで知られている2016年に登場した代表的なターゲット検出アルゴリズムである。
本稿では,水中YOLOアルゴリズムの適用方法の改善を提案し,その問題点を指摘する。
論文 参考訳(メタデータ) (2023-09-07T07:52:57Z) - Deep Reinforcement Learning Aided Packet-Routing For Aeronautical Ad-Hoc
Networks Formed by Passenger Planes [99.54065757867554]
エンド・ツー・エンド(E2E)遅延の最小化を目的としたAANETにおけるルーティングのための深層強化学習を起動する。
最深Qネットワーク(DQN)は、転送ノードで観測される最適ルーティング決定と局所的な地理的情報との関係をキャプチャする。
フィードバック機構を組み込んだディープバリューネットワーク(DVN)を用いて,システムのダイナミクスに関する知識をさらに活用する。
論文 参考訳(メタデータ) (2021-10-28T14:18:56Z) - Deep Learning Aided Routing for Space-Air-Ground Integrated Networks
Relying on Real Satellite, Flight, and Shipping Data [79.96177511319713]
現在の海上通信は主に単なる送信資源を持つ衛星に依存しており、現代の地上無線ネットワークよりも性能が劣っている。
大陸横断航空輸送の増加に伴い、商業旅客機に依存した航空アドホックネットワークという有望な概念は、空対地およびマルチホップ空対空リンクを介して衛星ベースの海上通信を強化する可能性がある。
低軌道衛星コンステレーション、旅客機、地上基地局、船舶がそれぞれ宇宙、航空、船舶として機能する、ユビキタスな海上通信を支援するための宇宙地上統合ネットワーク(SAGIN)を提案する。
論文 参考訳(メタデータ) (2021-10-28T14:12:10Z) - Underwater Acoustic Networks for Security Risk Assessment in Public
Drinking Water Reservoirs [5.227907960942717]
我々は、水中イベントを検出し、分類し、ローカライズするための革新的なAIベースのアプローチを実装している。
貯水池におけるハイドロフォンネットワークの設置と利用の課題について論じる。
論文 参考訳(メタデータ) (2021-07-29T14:02:51Z) - Jamming-Resilient Path Planning for Multiple UAVs via Deep Reinforcement
Learning [1.2330326247154968]
無人航空機(UAV)は無線ネットワークの不可欠な部分であると期待されている。
本論文では,複数のセルコネクテッドUAVの衝突のない経路を探索する。
本稿では,オンライン信号対干渉+雑音比マッピングを用いたオフライン時間差学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-04-09T16:52:33Z) - Learning-Based UAV Trajectory Optimization with Collision Avoidance and
Connectivity Constraints [0.0]
無人航空機(UAV)は無線ネットワークの不可欠な部分であると期待されている。
本稿では,衝突回避と無線接続制約による複数UAV軌道最適化問題を再構成する。
この問題を解決するために,分散型深層強化学習手法を提案する。
論文 参考訳(メタデータ) (2021-04-03T22:22:20Z) - Water Quality Prediction on a Sigfox-compliant IoT Device: The Road
Ahead of WaterS [0.27998963147546135]
我々は,収集した計測データを遠隔で通信する,モノのインターネット(Internet of Things)の水質予測システムであるWaterSに注目した。
このソリューションは、エネルギー効率や自律性といった特異なモノのインターネット(Internet of Things)の制約を考慮して、水質問題に対処する。
WaterSエコシステムのソースコードがオープンソースとしてリリースされ、産業とアカデミアの両方の研究活動を奨励し、促進している。
論文 参考訳(メタデータ) (2020-07-27T11:21:40Z) - Deep Learning for Radio Resource Allocation with Diverse
Quality-of-Service Requirements in 5G [53.23237216769839]
本研究では,基地局の最適資源配分ポリシーを近似するディープラーニングフレームワークを開発する。
完全接続ニューラルネットワーク(NN)は,近似誤差とサブキャリア数の量子化誤差により,要求を完全に保証できないことがわかった。
無線チャネルの分布と無線ネットワークにおけるサービスのタイプが定常的でないことを考慮し,非定常的無線ネットワークにおけるNNの更新にディープトランスファー学習を適用した。
論文 参考訳(メタデータ) (2020-03-29T04:48:22Z) - Data Freshness and Energy-Efficient UAV Navigation Optimization: A Deep
Reinforcement Learning Approach [88.45509934702913]
我々は、移動基地局(BS)が配備される複数の無人航空機(UAV)のナビゲーションポリシーを設計する。
我々は、地上BSにおけるデータの鮮度を確保するために、エネルギーや情報年齢(AoI)の制約などの異なる文脈情報を組み込んだ。
提案したトレーニングモデルを適用することで、UAV-BSに対する効果的なリアルタイム軌道ポリシーは、時間とともに観測可能なネットワーク状態をキャプチャする。
論文 参考訳(メタデータ) (2020-02-21T07:29:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。