論文の概要: Robust DNN Partitioning and Resource Allocation Under Uncertain Inference Time
- arxiv url: http://arxiv.org/abs/2503.21476v1
- Date: Thu, 27 Mar 2025 13:06:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-28 12:50:49.822053
- Title: Robust DNN Partitioning and Resource Allocation Under Uncertain Inference Time
- Title(参考訳): 不確実な推定時間下におけるロバストDNN分割と資源配分
- Authors: Zhaojun Nan, Yunchu Han, Sheng Zhou, Zhisheng Niu,
- Abstract要約: エッジインテリジェンスシステムでは、ディープニューラルネットワーク(DNN)のパーティショニングとデータオフロードが、リソース制約のあるモバイルデバイスに対してリアルタイムなタスク推論を提供する。
本稿では,タスクの確率的期限を満たしながら,モバイルデバイスの総エネルギー消費を最小化するためのロバストな最適化手法を提案する。
- 参考スコア(独自算出の注目度): 12.359690205873335
- License:
- Abstract: In edge intelligence systems, deep neural network (DNN) partitioning and data offloading can provide real-time task inference for resource-constrained mobile devices. However, the inference time of DNNs is typically uncertain and cannot be precisely determined in advance, presenting significant challenges in ensuring timely task processing within deadlines. To address the uncertain inference time, we propose a robust optimization scheme to minimize the total energy consumption of mobile devices while meeting task probabilistic deadlines. The scheme only requires the mean and variance information of the inference time, without any prediction methods or distribution functions. The problem is formulated as a mixed-integer nonlinear programming (MINLP) that involves jointly optimizing the DNN model partitioning and the allocation of local CPU/GPU frequencies and uplink bandwidth. To tackle the problem, we first decompose the original problem into two subproblems: resource allocation and DNN model partitioning. Subsequently, the two subproblems with probability constraints are equivalently transformed into deterministic optimization problems using the chance-constrained programming (CCP) method. Finally, the convex optimization technique and the penalty convex-concave procedure (PCCP) technique are employed to obtain the optimal solution of the resource allocation subproblem and a stationary point of the DNN model partitioning subproblem, respectively. The proposed algorithm leverages real-world data from popular hardware platforms and is evaluated on widely used DNN models. Extensive simulations show that our proposed algorithm effectively addresses the inference time uncertainty with probabilistic deadline guarantees while minimizing the energy consumption of mobile devices.
- Abstract(参考訳): エッジインテリジェンスシステムでは、ディープニューラルネットワーク(DNN)のパーティショニングとデータオフロードが、リソース制約のあるモバイルデバイスに対してリアルタイムなタスク推論を提供する。
しかし、DNNの推測時間は通常不確実であり、事前に正確には決定できないため、期限内にタイムリーなタスク処理を確保する上で重要な課題が提示される。
この不確実な推論時間に対処するため,タスク確率的期限を満たしながら,モバイルデバイスの総エネルギー消費を最小化するためのロバストな最適化手法を提案する。
このスキームは、予測方法や分布関数を使わずに、推論時間の平均および分散情報のみを必要とする。
この問題は、DNNモデルのパーティショニングとローカルCPU/GPU周波数とアップリンク帯域の割り当てを協調的に最適化する混合整数非線形プログラミング(MINLP)として定式化されている。
この問題に対処するため、まず元の問題をリソース割り当てとDNNモデル分割という2つのサブプロブレムに分解する。
その後、確率制約を持つ2つのサブプロブレムは、確率制約付きプログラミング(CCP)法を用いた決定論的最適化問題に等価に変換される。
最後に、資源割り当てサブプロブレムの最適解とDNNモデル分割サブプロブレムの定常点を求めるために、凸最適化手法とペナルティ凸凹法(PCCP)技術を用いる。
提案アルゴリズムは,一般的なハードウェアプラットフォームから得られた実世界のデータを活用し,広く使用されているDNNモデルで評価する。
シミュレーションの結果,提案アルゴリズムは,モバイルデバイスのエネルギー消費を最小限に抑えつつ,確率的期限保証付き推論時間不確実性に効果的に対処できることが示唆された。
関連論文リスト
- Optimization Proxies using Limited Labeled Data and Training Time -- A Semi-Supervised Bayesian Neural Network Approach [3.26805553822503]
制約のある最適化問題は、在庫や電力網などの様々な工学システムで発生する。
標準ディープニューラルネットワーク(DNN)ベースの機械学習プロキシは、ラベル付きデータが不足し、トレーニング時間が制限された実用的な環境では有効ではない。
論文 参考訳(メタデータ) (2024-10-04T02:10:20Z) - DNN Partitioning, Task Offloading, and Resource Allocation in Dynamic Vehicular Networks: A Lyapunov-Guided Diffusion-Based Reinforcement Learning Approach [49.56404236394601]
本稿では,Vehicular Edge Computingにおける共同DNNパーティショニング,タスクオフロード,リソース割り当ての問題を定式化する。
我々の目標は、時間とともにシステムの安定性を保証しながら、DNNベースのタスク完了時間を最小化することである。
拡散モデルの革新的利用を取り入れたマルチエージェント拡散に基づく深層強化学習(MAD2RL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-11T06:31:03Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Power Control with QoS Guarantees: A Differentiable Projection-based
Unsupervised Learning Framework [14.518558523319518]
NPハード無線リソース割り当て問題を解決する潜在的なソリューションとして、ディープニューラルネットワーク(DNN)が登場している。
マルチユーザチャネルにおける古典的電力制御問題を解決するために,教師なし学習フレームワークを提案する。
提案手法は,データレートを向上するだけでなく,既存の計算に比べて制約違反の確率をゼロにすることを示す。
論文 参考訳(メタデータ) (2023-05-31T14:11:51Z) - Learning from Images: Proactive Caching with Parallel Convolutional
Neural Networks [94.85780721466816]
本稿では,プロアクティブキャッシングのための新しいフレームワークを提案する。
モデルベースの最適化とデータ駆動技術を組み合わせて、最適化問題をグレースケールのイメージに変換する。
数値計算の結果,提案手法は71.6%の計算時間を0.8%のコストで削減できることがわかった。
論文 参考訳(メタデータ) (2021-08-15T21:32:47Z) - Efficient semidefinite-programming-based inference for binary and
multi-class MRFs [83.09715052229782]
分割関数やMAP推定をペアワイズMRFで効率的に計算する手法を提案する。
一般のバイナリMRFから完全多クラス設定への半定緩和を拡張し、解法を用いて再び効率的に解けるようなコンパクトな半定緩和を開発する。
論文 参考訳(メタデータ) (2020-12-04T15:36:29Z) - Adaptive Subcarrier, Parameter, and Power Allocation for Partitioned
Edge Learning Over Broadband Channels [69.18343801164741]
パーティショニングエッジ学習(PARTEL)は、無線ネットワークにおいてよく知られた分散学習手法であるパラメータサーバトレーニングを実装している。
本稿では、いくつかの補助変数を導入してParticleELを用いてトレーニングできるディープニューラルネットワーク(DNN)モデルについて考察する。
論文 参考訳(メタデータ) (2020-10-08T15:27:50Z) - Joint Multi-User DNN Partitioning and Computational Resource Allocation
for Collaborative Edge Intelligence [21.55340197267767]
Mobile Edge Computing(MEC)は、ネットワークエッジにさまざまなリソースを提供する有望なサポートアーキテクチャとして登場した。
エッジサーバの助けを借りて、ユーザ機器(UE)はディープニューラルネットワーク(DNN)ベースのAIアプリケーションを実行することができる。
最適解を時間内に達成できるIAO (Iterative Alternating Optimization) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-15T09:40:13Z) - Combining Deep Learning and Optimization for Security-Constrained
Optimal Power Flow [94.24763814458686]
セキュリティに制約のある最適電力フロー(SCOPF)は、電力システムの基本である。
SCOPF問題におけるAPRのモデル化は、複雑な大規模混合整数プログラムをもたらす。
本稿では,ディープラーニングとロバスト最適化を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T12:38:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。