論文の概要: A Reinforcement Learning-Based Telematic Routing Protocol for the Internet of Underwater Things
- arxiv url: http://arxiv.org/abs/2506.00133v1
- Date: Fri, 30 May 2025 18:11:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:32.384633
- Title: A Reinforcement Learning-Based Telematic Routing Protocol for the Internet of Underwater Things
- Title(参考訳): 水中モノインターネットのための強化学習型テレマティックルーティングプロトコル
- Authors: Mohammadhossein Homaei, Mehran Tarif, Agustin Di Bartolo, Oscar Mogollon Gutierrez, Mar Avila,
- Abstract要約: 本稿では,RL-RPL-UA(RL-RPL-UA)について紹介する。
RL-RPL-UAは、標準のRPLメッセージとの完全な互換性を維持し、リアルタイムな意思決定をサポートするための動的目的関数を追加する。
Aqua-Simを用いたシミュレーションでは、RL-RPL-UAはパケット配信を最大9.2%増加させ、パケット当たりのエネルギー使用量を14.8%削減し、従来の方法と比較してネットワーク寿命を80秒延長している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The Internet of Underwater Things (IoUT) faces major challenges such as low bandwidth, high latency, mobility, and limited energy resources. Traditional routing protocols like RPL, which were designed for land-based networks, do not perform well in these underwater conditions. This paper introduces RL-RPL-UA, a new routing protocol that uses reinforcement learning to improve performance in underwater environments. Each node includes a lightweight RL agent that selects the best parent node based on local information such as packet delivery ratio, buffer level, link quality, and remaining energy. RL-RPL-UA keeps full compatibility with standard RPL messages and adds a dynamic objective function to support real-time decision-making. Simulations using Aqua-Sim show that RL-RPL-UA increases packet delivery by up to 9.2%, reduces energy use per packet by 14.8%, and extends network lifetime by 80 seconds compared to traditional methods. These results suggest that RL-RPL-UA is a promising and energy-efficient routing solution for underwater networks.
- Abstract(参考訳): IoUT(Internet of Underwater Things)は、低帯域幅、高レイテンシ、モビリティ、限られたエネルギー資源といった大きな課題に直面している。
陸上ネットワーク用に設計されたRPLのような従来のルーティングプロトコルは、これらの水中環境ではうまく機能しない。
本稿では,RL-RPL-UA(RL-RPL-UA)について紹介する。
各ノードは、パケット配信率、バッファレベル、リンク品質、残エネルギーなどのローカル情報に基づいて、最適な親ノードを選択する軽量RLエージェントを含む。
RL-RPL-UAは、標準のRPLメッセージとの完全な互換性を維持し、リアルタイムな意思決定をサポートするための動的目的関数を追加する。
Aqua-Simを用いたシミュレーションでは、RL-RPL-UAはパケット配信を最大9.2%増加させ、パケット当たりのエネルギー使用量を14.8%削減し、従来の方法と比較してネットワーク寿命を80秒延長している。
これらの結果から,RL-RPL-UAは水中ネットワークにおいて有望かつエネルギー効率の高いルーティングソリューションであることが示唆された。
関連論文リスト
- Reinforcement Learning with Graph Attention for Routing and Wavelength Assignment with Lightpath Reuse [49.1574468325115]
フレキシブルレートトランスポンダを用いた固定グリッドネットワーク上でのルーティングとスペクトル割り当ての強化学習について検討する。
RWA-LRは総長ではなくホップ数によって候補経路が順序づけられたときのスループットが6%向上することを示す。
我々はRWA-LRのためのRLエージェントをポリシーと値関数のためのグラフアテンションネットワークで訓練し、グラフ構造化データを利用する。
論文 参考訳(メタデータ) (2025-02-20T17:10:11Z) - LEACH-RLC: Enhancing IoT Data Transmission with Optimized Clustering and Reinforcement Learning [0.0]
本稿では,Low-Energy Adaptive Clustering with Reinforcement Learning-based Controller (LEACH-RLC)を提案する。
MILPアプローチによるクラスタヘッド(CH)とノード対クラスタ割り当ての戦略的選択
新しいクラスタを生成するための最適なタイミングを学習することで、制御オーバーヘッドを最小限に抑えるRLエージェント。
その結果、最先端プロトコルよりもLEACH-RLCの方が優れた性能を示し、ネットワーク寿命の向上、平均エネルギー消費の削減、制御オーバーヘッドの最小化を示した。
論文 参考訳(メタデータ) (2024-01-28T21:08:45Z) - Deep Reinforcement Learning for Community Battery Scheduling under
Uncertainties of Load, PV Generation, and Energy Prices [5.694872363688119]
本稿では,不確実性が存在する場合に,コミュニティバッテリーシステムのスケジューリングを行うための深層強化学習(RL)戦略を提案する。
コミュニティバッテリーは、ローカルPVエネルギーの統合、ピーク負荷の低減、および調停のためのエネルギー価格変動の活用において、多用途の役割を担っている。
論文 参考訳(メタデータ) (2023-12-04T13:45:17Z) - Hybrid Reinforcement Learning for Optimizing Pump Sustainability in
Real-World Water Distribution Networks [55.591662978280894]
本稿では,実世界の配水ネットワーク(WDN)のリアルタイム制御を強化するために,ポンプスケジューリング最適化問題に対処する。
我々の主な目的は、エネルギー消費と運用コストを削減しつつ、物理的な運用上の制約を遵守することである。
進化に基づくアルゴリズムや遺伝的アルゴリズムのような伝統的な最適化手法は、収束保証の欠如によってしばしば不足する。
論文 参考訳(メタデータ) (2023-10-13T21:26:16Z) - Fair and Efficient Distributed Edge Learning with Hybrid Multipath TCP [62.81300791178381]
無線による分散エッジ学習のボトルネックは、コンピューティングから通信へと移行した。
DEL用の既存のTCPベースのデータネットワークスキームは、アプリケーションに依存しず、アプリケーション層要求に応じて調整を施さない。
DELのためのモデルベースと深部強化学習(DRL)に基づくMP TCPを組み合わせたハイブリッドマルチパスTCP(MP TCP)を開発した。
論文 参考訳(メタデータ) (2022-11-03T09:08:30Z) - Deep Reinforcement Learning Based Multidimensional Resource Management
for Energy Harvesting Cognitive NOMA Communications [64.1076645382049]
エネルギー収穫(EH)、認知無線(CR)、非直交多重アクセス(NOMA)の組み合わせはエネルギー効率を向上させるための有望な解決策である。
本稿では,決定論的CR-NOMA IoTシステムにおけるスペクトル,エネルギー,時間資源管理について検討する。
論文 参考訳(メタデータ) (2021-09-17T08:55:48Z) - Learning to Prune Deep Neural Networks via Reinforcement Learning [64.85939668308966]
PuRLは、ニューラルネットワークのプルーニングのためのディープ強化学習ベースのアルゴリズムである。
現在の最先端の手法に匹敵する幅と精度を実現している。
論文 参考訳(メタデータ) (2020-07-09T13:06:07Z) - Anypath Routing Protocol Design via Q-Learning for Underwater Sensor
Networks [12.896530402853612]
本稿では,水中センサネットワークのためのQラーニングに基づくローカライズフリーな任意の経路ルーティングプロトコルを提案する。
センサノードの残エネルギーと深さ情報を共同で考慮し、Q値を算出する。
提案したルーティングプロトコルの性能を数学的に解析する。
論文 参考訳(メタデータ) (2020-02-22T04:28:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。