論文の概要: Q-Learning-Based Time-Critical Data Aggregation Scheduling in IoT
- arxiv url: http://arxiv.org/abs/2511.17531v1
- Date: Wed, 29 Oct 2025 15:46:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-07 19:06:32.246125
- Title: Q-Learning-Based Time-Critical Data Aggregation Scheduling in IoT
- Title(参考訳): IoTにおけるQラーニングに基づく時間臨界データアグリゲーションスケジューリング
- Authors: Van-Vi Vo, Tien-Dung Nguyen, Duc-Tai Le, Hyunseung Choo,
- Abstract要約: Internet of Things(IoT)ネットワークにおける時間クリティカルなデータアグリゲーションは、効率的で衝突のないスケジューリングを必要とする。
二相木構築とスケジューリングの伝統的な手法は、しばしば高い計算オーバーヘッドと最適以下の遅延に悩まされる。
本稿では,集約木の構築とスケジューリングを統一する新しいQラーニングフレームワークを提案し,拡張性のためのハッシュ状態を持つマルコフ決定プロセス(MDP)としてプロセスをモデル化する。
- 参考スコア(独自算出の注目度): 3.361625512902259
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time-critical data aggregation in Internet of Things (IoT) networks demands efficient, collision-free scheduling to minimize latency for applications like smart cities and industrial automation. Traditional heuristic methods, with two-phase tree construction and scheduling, often suffer from high computational overhead and suboptimal delays due to their static nature. To address this, we propose a novel Q-learning framework that unifies aggregation tree construction and scheduling, modeling the process as a Markov Decision Process (MDP) with hashed states for scalability. By leveraging a reward function that promotes large, interference-free batch transmissions, our approach dynamically learns optimal scheduling policies. Simulations on static networks with up to 300 nodes demonstrate up to 10.87% lower latency compared to a state-of-the-art heuristic algorithm, highlighting its robustness for delay-sensitive IoT applications. This framework enables timely insights in IoT environments, paving the way for scalable, low-latency data aggregation.
- Abstract(参考訳): IoT(Internet of Things)ネットワークにおける時間クリティカルなデータ集約は、スマートシティや産業自動化といったアプリケーションのレイテンシを最小限に抑えるために、効率的で衝突のないスケジューリングを必要とする。
伝統的ヒューリスティックな手法では、二相木の構築とスケジューリングは、しばしば、その静的な性質のために高い計算オーバーヘッドと準最適遅延に悩まされる。
そこで我々は,集約木の構築とスケジューリングを統一し,拡張性のためのハッシュ状態を持つマルコフ決定プロセス(MDP)としてモデル化する,新しいQラーニングフレームワークを提案する。
大規模かつ干渉のないバッチ伝送を促進する報奨関数を活用することにより,提案手法は最適スケジューリングポリシーを動的に学習する。
300ノードまでの静的ネットワーク上のシミュレーションは、最先端のヒューリスティックアルゴリズムと比較して最大10.87%のレイテンシを示し、遅延に敏感なIoTアプリケーションに対する堅牢性を強調している。
このフレームワークはIoT環境のタイムリーな洞察を可能にし、スケーラブルで低レイテンシなデータアグリゲーションを実現する。
関連論文リスト
- CSGO: Generalized Optimization for Cold Start in Wireless Collaborative Edge LLM Systems [62.24576366776727]
本稿では,全体の推論遅延を最小限に抑えるために,遅延を考慮したスケジューリングフレームワークを提案する。
提案手法は,ベースライン戦略と比較して,コールドスタート遅延を著しく低減することを示す。
論文 参考訳(メタデータ) (2025-08-15T07:49:22Z) - Network-Aware Scheduling for Remote Gate Execution in Quantum Data Centers [8.528068737844364]
我々は,2つの絡み合いスケジューリング戦略を静的かつ動的に評価し,その性能を解析する。
動的スケジューリングは、高い絡み合いの並列性を持つシナリオにおいて、静的スケジューリングよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2025-04-28T18:22:22Z) - Resource Efficient Asynchronous Federated Learning for Digital Twin Empowered IoT Network [29.895766751146155]
Digital twin(DT)は、IoT(Internet of Things)デバイスのリアルタイムステータスと動的トポロジマッピングを提供する。
我々は,非同期フェデレーション学習(FL)に基づく軽量DT強化IoTネットワークに適した動的リソーススケジューリングアルゴリズムを開発した。
具体的には,エネルギー消費と遅延の両方を包含する多目的関数を最小化する。
論文 参考訳(メタデータ) (2024-08-26T14:28:51Z) - Intent-Aware DRL-Based NOMA Uplink Dynamic Scheduler for IIoT [30.146175299047325]
産業用インターネット・オブ・モノのユーザ機器(IIoT UE)を意図的(QoS要求品質)とランダムなトラフィック到着で支援する問題について検討する。
利用可能な通信資源のスケジューリング方法を学ぶために,DRLに基づく時間周波数リソースの集中型動的スケジューラを提案する。
論文 参考訳(メタデータ) (2024-03-27T08:57:15Z) - Latency-aware Unified Dynamic Networks for Efficient Image Recognition [72.8951331472913]
LAUDNetは動的ネットワークの理論的および実用的な効率ギャップを橋渡しするフレームワークである。
3つの主要な動的パラダイム - 適応型計算、動的層スキップ、動的チャネルスキップ - を統合している。
これにより、V100,3090やTX2 GPUのようなプラットフォーム上で、ResNetのようなモデルの遅延を50%以上削減できる。
論文 参考訳(メタデータ) (2023-08-30T10:57:41Z) - Dynamic Scheduling for Federated Edge Learning with Streaming Data [56.91063444859008]
我々は,長期的エネルギー制約のある分散エッジデバイスにおいて,トレーニングデータを時間とともにランダムに生成するフェデレーションエッジ学習(FEEL)システムを検討する。
限られた通信リソースとレイテンシ要件のため、各イテレーションでローカルトレーニングプロセスに参加するのはデバイスのサブセットのみである。
論文 参考訳(メタデータ) (2023-05-02T07:41:16Z) - Scheduling Inference Workloads on Distributed Edge Clusters with
Reinforcement Learning [11.007816552466952]
本稿では,エッジネットワークにおける予測クエリを短時間でスケジューリングする問題に焦点をあてる。
シミュレーションにより,大規模ISPの現実的なネットワーク設定とワークロードにおけるいくつかのポリシーを解析する。
我々は、強化学習に基づくスケジューリングアルゴリズムASETを設計し、システム条件に応じてその決定を適応させることができる。
論文 参考訳(メタデータ) (2023-01-31T13:23:34Z) - Adaptive Anomaly Detection for Internet of Things in Hierarchical Edge
Computing: A Contextual-Bandit Approach [81.5261621619557]
階層エッジコンピューティング(HEC)を用いた適応型異常検出手法を提案する。
まず,複雑性を増した複数のDNNモデルを構築し,それぞれを対応するHEC層に関連付ける。
そこで我々は、文脈帯域問題として定式化され、強化学習ポリシーネットワークを用いて解決される適応モデル選択スキームを設計する。
論文 参考訳(メタデータ) (2021-08-09T08:45:47Z) - Better than the Best: Gradient-based Improper Reinforcement Learning for
Network Scheduling [60.48359567964899]
パケット遅延を最小限に抑えるため,制約付き待ち行列ネットワークにおけるスケジューリングの問題を考える。
我々は、利用可能な原子ポリシーよりも優れたスケジューラを生成するポリシー勾配に基づく強化学習アルゴリズムを使用する。
論文 参考訳(メタデータ) (2021-05-01T10:18:34Z) - Dynamic Scheduling for Stochastic Edge-Cloud Computing Environments
using A3C learning and Residual Recurrent Neural Networks [30.61220416710614]
A-Advantage-Actor-Critic(A3C)学習は、データが少ない動的なシナリオに迅速に適応することが知られ、Residual Recurrent Neural Network(R2N2)はモデルパラメータを迅速に更新する。
我々はR2N2アーキテクチャを用いて、多数のホストパラメータとタスクパラメータを時間パターンとともにキャプチャし、効率的なスケジューリング決定を提供する。
実世界のデータセットで実施された実験では、エネルギー消費、応答時間、ServiceLevelAgreementおよびランニングコストがそれぞれ14.4%、7.74%、31.9%、および4.64%で大幅に改善された。
論文 参考訳(メタデータ) (2020-09-01T13:36:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。