論文の概要: Fast AI Model Splitting over Edge Networks
- arxiv url: http://arxiv.org/abs/2507.01041v1
- Date: Mon, 23 Jun 2025 07:14:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:59.784695
- Title: Fast AI Model Splitting over Edge Networks
- Title(参考訳): エッジネットワーク上での高速AIモデル分割
- Authors: Zuguang Li, Wen Wu, Shaohua Wu, Songge Zhang, Ye Wang, Xuemin, Shen,
- Abstract要約: 複雑なAIモデルアーキテクチャは、最適なモデル分割を得るために高い計算複雑性をもたらす。
そこで本研究では,DAGを再構成した高速なDAGモデル分割アルゴリズムを提案する。
ブロック構造を持つAIモデルを考慮し,計算複雑性を低減するブロックワイドモデル分割アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 20.38061058476494
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Split learning (SL) has emerged as a computationally efficient approach for artificial intelligence (AI) model training, which can alleviate device-side computational workloads. However, complex AI model architectures pose high computational complexity to obtain the optimal model splitting. In this paper, we represent an arbitrary AI model as a directed acyclic graph (DAG), and then reformulate the optimal model splitting problem as a minimum s-t cut search problem. To solve the problem, we propose a fast DAG-based model splitting algorithm, which restructures the DAG to enable the optimal model splitting identification via a maximum flow method. Theoretical analysis indicates that the proposed algorithm is optimal. Furthermore, considering AI models with block structures, we propose a block-wise model splitting algorithm to reduce computational complexity. The algorithm abstracts each block, i.e., a component consisting of multiple layers, into a single vertex, thereby obtaining the optimal model splitting via a simplified DAG. Extensive experimental results demonstrate that the proposed algorithms can determine the optimal model splitting within milliseconds, as well as reduce training delay by 24.62%-38.95% in dynamic edge networks as compared to the state-of-the-art benchmarks.
- Abstract(参考訳): スプリットラーニング(SL)は、デバイス側の計算処理を軽減できる人工知能(AI)モデルトレーニングのための、計算効率のよいアプローチとして登場した。
しかし、複雑なAIモデルアーキテクチャは最適なモデル分割を得るために高い計算複雑性をもたらす。
本稿では,任意のAIモデルを有向非巡回グラフ(DAG)として表現し,最適モデル分割問題を最小のs-t削減探索問題として再構成する。
そこで本研究では,DAGを再構成した高速DAGモデル分割アルゴリズムを提案する。
理論的解析は,提案アルゴリズムが最適であることを示している。
さらに,ブロック構造を持つAIモデルを考慮し,計算複雑性を低減するブロックワイドモデル分割アルゴリズムを提案する。
このアルゴリズムは各ブロック、すなわち複数の層からなるコンポーネントを1つの頂点に抽象化し、単純化されたDAGを介して最適なモデル分割を得る。
大規模な実験結果から,提案アルゴリズムはミリ秒以内で最適モデルを分割し,動的エッジネットワークのトレーニング遅延を24.62%-38.95%削減できることがわかった。
関連論文リスト
- An Efficient Algorithm for Clustered Multi-Task Compressive Sensing [60.70532293880842]
クラスタ化マルチタスク圧縮センシングは、複数の圧縮センシングタスクを解決する階層モデルである。
このモデルに対する既存の推論アルゴリズムは計算コストが高く、高次元ではうまくスケールしない。
本稿では,これらの共分散行列を明示的に計算する必要をなくし,モデル推論を大幅に高速化するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-30T15:57:14Z) - A Fast Minimization Algorithm for the Euler Elastica Model Based on a
Bilinear Decomposition [5.649764770305694]
本稿では,Euler Elastica(EE)モデルのための,高速なハイブリッド交互最小化(HALM)アルゴリズムを提案する。
HALMアルゴリズムは3つの部分最小化問題を含み、それぞれが閉じた形で解かれるか、高速解法によって近似される。
数値実験の実施により,新しいアルゴリズムは高い効率で良好な結果が得られることを示した。
論文 参考訳(メタデータ) (2023-08-25T16:15:38Z) - Deep Unrolling for Nonconvex Robust Principal Component Analysis [75.32013242448151]
我々はロバスト成分分析のためのアルゴリズムを設計する(A)
行列を低主行列とスパース主行列の和に分解する。
論文 参考訳(メタデータ) (2023-07-12T03:48:26Z) - A Deep Unrolling Model with Hybrid Optimization Structure for Hyperspectral Image Deconvolution [50.13564338607482]
本稿では,DeepMixと呼ばれるハイパースペクトルデコンボリューション問題に対する新しい最適化フレームワークを提案する。
これは3つの異なるモジュール、すなわちデータ一貫性モジュール、手作りの正規化器の効果を強制するモジュール、および装飾モジュールで構成されている。
本研究は,他のモジュールの協調作業によって達成される進歩を維持するために設計された,文脈を考慮した認知型モジュールを提案する。
論文 参考訳(メタデータ) (2023-06-10T08:25:16Z) - Autoselection of the Ensemble of Convolutional Neural Networks with
Second-Order Cone Programming [0.8029049649310213]
本研究では,畳み込みニューラルネットワーク(CNN)のアンサンブルを推定する数学的モデルを提案する。
提案手法は, CIFAR-10, CIFAR-100 および MNIST データセットで検証される。
論文 参考訳(メタデータ) (2023-02-12T16:18:06Z) - Dual Optimization for Kolmogorov Model Learning Using Enhanced Gradient
Descent [8.714458129632158]
コルモゴロフモデル(コルモゴロフモデル、英: Kolmogorov model、KM)は、確率変数の集合の基本的な確率構造を学ぶための解釈可能で予測可能な表現手法である。
正規化双対最適化と拡張勾配降下法(GD)を併用した計算スケーラブルなKM学習アルゴリズムを提案する。
提案したKM学習アルゴリズムを用いた論理的関係マイニングの精度は80%以上である。
論文 参考訳(メタデータ) (2021-07-11T10:33:02Z) - Iterative Algorithm Induced Deep-Unfolding Neural Networks: Precoding
Design for Multiuser MIMO Systems [59.804810122136345]
本稿では,AIIDNN(ディープ・アンフォールディング・ニューラルネット)を一般化した,ディープ・アンフォールディングのためのフレームワークを提案する。
古典的重み付き最小二乗誤差(WMMSE)反復アルゴリズムの構造に基づく効率的なIAIDNNを提案する。
提案したIAIDNNは,計算複雑性を低減した反復WMMSEアルゴリズムの性能を効率よく向上することを示す。
論文 参考訳(メタデータ) (2020-06-15T02:57:57Z) - Hyperspectral Unmixing Network Inspired by Unfolding an Optimization
Problem [2.4016406737205753]
ハイパースペクトル画像(HSI)アンミックスタスクは本質的に逆問題であり、最適化アルゴリズムによってよく解決される。
本稿では,U-ADMM-AENetとU-ADMM-BUNetという2つの新しいネットワークアーキテクチャを提案する。
本研究は,機械学習の文献において,展開された構造が対応する解釈を見つけることを示し,提案手法の有効性をさらに示すものである。
論文 参考訳(メタデータ) (2020-05-21T18:49:45Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - Learning Gaussian Graphical Models via Multiplicative Weights [54.252053139374205]
乗算重み更新法に基づいて,Klivans と Meka のアルゴリズムを適用した。
アルゴリズムは、文献の他のものと質的に類似したサンプル複雑性境界を楽しみます。
ランタイムが低い$O(mp2)$で、$m$サンプルと$p$ノードの場合には、簡単にオンライン形式で実装できる。
論文 参考訳(メタデータ) (2020-02-20T10:50:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。