論文の概要: Hierarchical Online-Scheduling for Energy-Efficient Split Inference with Progressive Transmission
- arxiv url: http://arxiv.org/abs/2601.08135v1
- Date: Tue, 13 Jan 2026 01:56:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.014186
- Title: Hierarchical Online-Scheduling for Energy-Efficient Split Inference with Progressive Transmission
- Title(参考訳): プログレッシブ・トランスミッションを用いたエネルギー効率の良いスプリット推論のための階層型オンラインスケジューリング
- Authors: Zengzipeng Tang, Yuxuan Sun, Wei Chen, Jianwen Ding, Bo Ai, Yulin Shao,
- Abstract要約: Deep Neural Networks(DNN)によるデバイスエッジのコラボレーティブ推論は、精度、レイテンシ、エネルギー消費の基本的なトレードオフに直面している。
本稿では,ENACHI という名前の分割推論のための新しいエネルギー精度階層型最適化フレームワークを提案する。
ImageNetデータセットの実験では、ENACHIはさまざまな期限と帯域幅で最先端のベンチマークを上回っている。
- 参考スコア(独自算出の注目度): 23.81409473238433
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Device-edge collaborative inference with Deep Neural Networks (DNNs) faces fundamental trade-offs among accuracy, latency and energy consumption. Current scheduling exhibits two drawbacks: a granularity mismatch between coarse, task-level decisions and fine-grained, packet-level channel dynamics, and insufficient awareness of per-task complexity. Consequently, scheduling solely at the task level leads to inefficient resource utilization. This paper proposes a novel ENergy-ACcuracy Hierarchical optimization framework for split Inference, named ENACHI, that jointly optimizes task- and packet-level scheduling to maximize accuracy under energy and delay constraints. A two-tier Lyapunov-based framework is developed for ENACHI, with a progressive transmission technique further integrated to enhance adaptivity. At the task level, an outer drift-plus-penalty loop makes online decisions for DNN partitioning and bandwidth allocation, and establishes a reference power budget to manage the long-term energy-accuracy trade-off. At the packet level, an uncertainty-aware progressive transmission mechanism is employed to adaptively manage per-sample task complexity. This is integrated with a nested inner control loop implementing a novel reference-tracking policy, which dynamically adjusts per-slot transmit power to adapt to fluctuating channel conditions. Experiments on ImageNet dataset demonstrate that ENACHI outperforms state-of-the-art benchmarks under varying deadlines and bandwidths, achieving a 43.12\% gain in inference accuracy with a 62.13\% reduction in energy consumption under stringent deadlines, and exhibits high scalability by maintaining stable energy consumption in congested multi-user scenarios.
- Abstract(参考訳): Deep Neural Networks(DNN)によるデバイスエッジのコラボレーティブ推論は、精度、レイテンシ、エネルギー消費の基本的なトレードオフに直面している。
現在のスケジューリングでは、粗い、タスクレベルの決定ときめ細かな、パケットレベルのチャネルダイナミクスとの粒度のミスマッチ、タスク毎の複雑さの認識不足という2つの欠点が示されています。
その結果、タスクレベルでのスケジューリングは、非効率なリソース利用につながる。
本稿では、タスクレベルとパケットレベルのスケジューリングを協調的に最適化し、エネルギーおよび遅延制約下での精度を最大化する、分割推論のための新しいエネルギー精度階層最適化フレームワークであるENACHIを提案する。
ENACHIのための2層リアプノフベースのフレームワークが開発され、適応性を高めるためにプログレッシブトランスミッション技術がさらに統合されている。
タスクレベルでは、外部ドリフト・プラス・ペナルティループがDNN分割と帯域割り当てのオンライン決定を行い、長期エネルギー・正確性トレードオフを管理するための参照電力予算を確立する。
パケットレベルでは、サンプルごとのタスクの複雑さを適応的に管理するために、不確実性を認識したプログレッシブトランスミッション機構が使用される。
これは、スロットごとの送信電力を動的に調整し、変動するチャネル条件に適応する新しい参照追跡ポリシーを実装したネスト内制御ループと統合される。
ImageNetデータセットの実験では、ENACHIは様々な期限と帯域幅で最先端のベンチマークを上回り、予測精度が43.12\%向上し、厳密な期限下でのエネルギー消費が62.13\%減少し、混雑するマルチユーザーシナリオにおいて安定したエネルギー消費を維持することで高いスケーラビリティを示す。
関連論文リスト
- TS-DP: Reinforcement Speculative Decoding For Temporal Adaptive Diffusion Policy Acceleration [64.32072516882947]
拡散ポリシーは、具体的制御が優れているが、高い推論遅延と計算コストに悩まされている。
時間認識強化に基づく投機的拡散政策(TS-DP)を提案する。
TS-DPは94%以上のドラフトで最大4.17倍高速な推論を実現し、推論周波数は25Hzに達した。
論文 参考訳(メタデータ) (2025-12-13T07:53:14Z) - Resource Allocation in Hybrid Radio-Optical IoT Networks using GNN with Multi-task Learning [11.833896722352568]
本稿では,光ニューラルOWCと電波周波数(RF)を統合したハイブリッドモノのインターネット(IoT)ネットワークにおけるデュアルテクノロジースケジューリングの問題に対処する。
本稿では,2段階グラフ埋め込みとトランスフォーマー(DGET)フレームワークを組み合わせた教師付きマルチタスク学習アーキテクチャを提案する。
提案フレームワークは、90%以上の分類精度で最適に近いスケジューリングを実現し、計算複雑性を低減し、部分的なチャネルオブザーバビリティの下で高いロバスト性を示す。
論文 参考訳(メタデータ) (2025-10-29T15:02:28Z) - PASS-Enhanced MEC: Joint Optimization of Task Offloading and Uplink PASS Beamforming [67.78883135636657]
ピンチアンテナシステム (PASS) によるモバイルエッジコンピューティング (MEC) アーキテクチャについて検討した。
PASSは、重要な経路損失と潜在的な信号遮断を効果的に軽減しつつ、短距離ライン・オブ・ライト(LoS)リンクを確立する。
ネットワーク遅延最小化問題を定式化し、アップリンクPASSビームフォーミングとタスクオフロードを共同で最適化する。
論文 参考訳(メタデータ) (2025-10-27T03:04:46Z) - AoI-Aware Task Offloading and Transmission Optimization for Industrial IoT Networks: A Branching Deep Reinforcement Learning Approach [43.261887758877386]
産業用モノのインターネット(Industrial Internet of Things, IIoT)では、無線ネットワーク上で大量のデータを頻繁に送信することは、厳しいタイムライン要件を満たす必要がある。
Information (AoI)-aware multi-base station (BS) real-time monitoring framework to support extensive IIoT deployments。
論文 参考訳(メタデータ) (2025-10-18T09:14:39Z) - Slim Scheduler: A Runtime-Aware RL and Scheduler System for Efficient CNN Inference [0.0]
Slim Schedulerは、PPO(Proximal Policy Optimization)強化学習ポリシーとアルゴリズム的、欲求的なスケジューラを統合し、スクリム可能なモデルに対する分散推論を調整する。
この階層的な設計は、検索空間の複雑さを減らし、特定のハードウェアへの過度な適合を緩和し、効率とスループットのバランスをとる。
論文 参考訳(メタデータ) (2025-10-10T05:44:05Z) - Joint Channel Estimation and Computation Offloading in Fluid Antenna-assisted MEC Networks [81.36647816787713]
チャネル推定の遅延を最小限に抑えるためのFA支援オフロードフレームワークを提案する。
提案方式は,効率的な通信を行う場合の精度を大幅に低下させることを示す。
論文 参考訳(メタデータ) (2025-09-16T08:48:44Z) - Lyapunov-Driven Deep Reinforcement Learning for Edge Inference Empowered
by Reconfigurable Intelligent Surfaces [30.1512069754603]
本稿では,ワイヤレスエッジにおけるエネルギー効率,低レイテンシ,高精度な推論のための新しいアルゴリズムを提案する。
本稿では,新しいデータを一連のデバイスで連続的に生成・収集し,動的キューシステムを通じて処理するシナリオについて考察する。
論文 参考訳(メタデータ) (2023-05-18T12:46:42Z) - Federated Learning for Energy-limited Wireless Networks: A Partial Model
Aggregation Approach [79.59560136273917]
デバイス間の限られた通信資源、帯域幅とエネルギー、およびデータ不均一性は、連邦学習(FL)の主要なボトルネックである
まず、部分モデルアグリゲーション(PMA)を用いた新しいFLフレームワークを考案する。
提案されたPMA-FLは、2つの典型的な異種データセットにおいて2.72%と11.6%の精度を改善する。
論文 参考訳(メタデータ) (2022-04-20T19:09:52Z) - Energy-Efficient Model Compression and Splitting for Collaborative
Inference Over Time-Varying Channels [52.60092598312894]
本稿では,エッジノードとリモートノード間のモデル圧縮と時間変化モデル分割を利用して,エッジデバイスにおける総エネルギーコストを削減する手法を提案する。
提案手法は, 検討されたベースラインと比較して, エネルギー消費が最小限であり, 排出コストが$CO$となる。
論文 参考訳(メタデータ) (2021-06-02T07:36:27Z) - EdgeBERT: Sentence-Level Energy Optimizations for Latency-Aware
Multi-Task NLP Inference [82.1584439276834]
BERTのようなトランスフォーマーベースの言語モデルでは、自然言語処理(NLP)タスクの精度が大幅に向上する。
We present EdgeBERT, a in-deepth algorithm- hardware co-design for latency-aware energy optimization for multi-task NLP。
論文 参考訳(メタデータ) (2020-11-28T19:21:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。