論文の概要: Energy-efficient Training of Distributed DNNs in the Mobile-edge-cloud
Continuum
- arxiv url: http://arxiv.org/abs/2202.11349v1
- Date: Wed, 23 Feb 2022 08:35:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-24 16:29:04.232081
- Title: Energy-efficient Training of Distributed DNNs in the Mobile-edge-cloud
Continuum
- Title(参考訳): モバイルエッジクラウド連続体における分散DNNのエネルギー効率向上
- Authors: Francesco Malandrino and Carla Fabiana Chiasserini and Giuseppe Di
Giacomo
- Abstract要約: 異種ノード群が協調して学習タスクを行うマルチ層ネットワークにおいて,分散機械学習に対処する。
本稿では,学習時間と品質要件を満たしつつ,エネルギー効率の高いMLモデルトレーニングを実現するRightTrainというソリューション概念を提案する。
評価の結果,RightTrainは最適値と密に一致し,50%以上の性能を達成できた。
- 参考スコア(独自算出の注目度): 18.247181241860538
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We address distributed machine learning in multi-tier (e.g.,
mobile-edge-cloud) networks where a heterogeneous set of nodes cooperate to
perform a learning task. Due to the presence of multiple data sources and
computation-capable nodes, a learning controller (e.g., located in the edge)
has to make decisions about (i) which distributed ML model structure to select,
(ii) which data should be used for the ML model training, and (iii) which
resources should be allocated to it. Since these decisions deeply influence one
another, they should be made jointly. In this paper, we envision a new approach
to distributed learning in multi-tier networks, which aims at maximizing ML
efficiency. To this end, we propose a solution concept, called RightTrain, that
achieves energy-efficient ML model training, while fulfilling learning time and
quality requirements. RightTrain makes high-quality decisions in polynomial
time. Further, our performance evaluation shows that RightTrain closely matches
the optimum and outperforms the state of the art by over 50%.
- Abstract(参考訳): 我々は,異種ノード群が協調して学習タスクを行う多層ネットワーク(モバイルエッジクラウドなど)における分散機械学習に対処する。
複数のデータソースと計算可能なノードが存在するため、学習コントローラ(例えばエッジに位置する)は決定をしなければならない。
i)選択するためにMLモデル構造を分散した
(ii)mlモデルのトレーニングに使用するべきデータ、及び
(iii)どのリソースを割り当てるべきか。
これらの決定は互いに深く影響するため、共同で行うべきである。
本稿では,ML効率の最大化を目的としたマルチ層ネットワークにおける分散学習の新しいアプローチを提案する。
そこで本稿では,学習時間と品質要件を満たしつつ,エネルギー効率の高いMLモデルトレーニングを実現するRightTrainというソリューション概念を提案する。
RightTrainは多項式時間で高品質な決定を行う。
さらに,評価の結果,RightTrainは最適値と密に一致し,50%以上の性能を有することがわかった。
関連論文リスト
- Prioritizing Modalities: Flexible Importance Scheduling in Federated Multimodal Learning [5.421492821020181]
Federated Learning(FL)は、デバイスがローカルデータを共有せずにモデルを協調的にトレーニングできる分散機械学習アプローチである。
FLを実世界のデータに適用することは、特に既存のFL研究が不正なデータに焦点を当てているため、課題を提示している。
我々は,各モードエンコーダのトレーニングリソースを適応的に割り当てることで,MFLにおける計算効率を向上させる新しい手法FlexModを提案する。
論文 参考訳(メタデータ) (2024-08-13T01:14:27Z) - Dependable Distributed Training of Compressed Machine Learning Models [16.403297089086042]
信頼性のある学習オーケストレーションのためのフレームワークであるDepLを提案する。
i) 学習に活用するデータ、(ii) 使用するモデルと、それらに切り替えるタイミング、(iii) ノードのクラスタとそのリソースについて、高品質で効率的な決定を行う。
DepLの競合比と複雑性は一定であり、最先端技術よりも27%以上向上していることを示す。
論文 参考訳(メタデータ) (2024-02-22T07:24:26Z) - Toward efficient resource utilization at edge nodes in federated learning [0.6990493129893112]
フェデレートされた学習により、エッジノードは、データを共有することなく、グローバルモデルの構築に協力的に貢献することができる。
計算リソースの制約とネットワーク通信は、ディープラーニングアプリケーションに典型的なより大きなモデルサイズにとって、深刻なボトルネックになる可能性がある。
デバイス上での資源利用を減らすため,転送学習にインスパイアされたFL戦略を提案し,評価する。
論文 参考訳(メタデータ) (2023-09-19T07:04:50Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Partitioning Distributed Compute Jobs with Reinforcement Learning and
Graph Neural Networks [58.720142291102135]
大規模な機械学習モデルは、幅広い分野に進歩をもたらしている。
これらのモデルの多くは、単一のマシンでトレーニングするには大きすぎるため、複数のデバイスに分散する必要がある。
スループットやブロッキングレートといったユーザクリティカルな指標に対して,並列化の最大化が準最適であることを示す。
論文 参考訳(メタデータ) (2023-01-31T17:41:07Z) - Matching DNN Compression and Cooperative Training with Resources and
Data Availability [20.329698347331075]
MLモデルをどの程度、いつ圧縮し、どこでトレーニングを実行するべきかをエミュレートするかは、難しい決定です。
我々はDNNの訓練に焦点をあてたネットワークシステムをモデル化し、多次元問題を定式化し、近似動的プログラミング問題を定式化する。
我々は、PACTの解が所望の最適値に近づくことができることを証明し、時間的複雑さの増大を犠牲にして証明する。
論文 参考訳(メタデータ) (2022-12-02T09:52:18Z) - Parallel Successive Learning for Dynamic Distributed Model Training over
Heterogeneous Wireless Networks [50.68446003616802]
フェデレートラーニング(Federated Learning, FedL)は、一連の無線デバイスにモデルトレーニングを配布する一般的なテクニックとして登場した。
我々は,FedLアーキテクチャを3次元に拡張した並列逐次学習(PSL)を開発した。
我々の分析は、分散機械学習におけるコールド対ウォームアップモデルの概念とモデル慣性について光を当てている。
論文 参考訳(メタデータ) (2022-02-07T05:11:01Z) - UAV-assisted Online Machine Learning over Multi-Tiered Networks: A
Hierarchical Nested Personalized Federated Learning Approach [25.936914508952086]
地理的分散デバイスクラスタのための無人航空機(UAV)による分散機械学習(ML)を検討する。
i)リーダー,ワーカー,コーディネータによるUAVスワーミング,(ii)階層型ネスト型パーソナライズド・フェデレーション・ラーニング(HN-PFL),(iii)UAVのローカル計算機能を用いた分散MLのための協調的UAVリソースプール,の5つの新しい技術/技術を提案する。
論文 参考訳(メタデータ) (2021-06-29T21:40:28Z) - Toward Multiple Federated Learning Services Resource Sharing in Mobile
Edge Networks [88.15736037284408]
本稿では,マルチアクセスエッジコンピューティングサーバにおいて,複数のフェデレーション付き学習サービスの新たなモデルについて検討する。
共同資源最適化とハイパーラーニング率制御の問題,すなわちMS-FEDLを提案する。
シミュレーションの結果,提案アルゴリズムの収束性能を実証した。
論文 参考訳(メタデータ) (2020-11-25T01:29:41Z) - Dif-MAML: Decentralized Multi-Agent Meta-Learning [54.39661018886268]
我々は,MAML や Dif-MAML と呼ばれる協調型マルチエージェントメタ学習アルゴリズムを提案する。
提案手法により, エージェントの集合が線形速度で合意に達し, 集約MAMLの定常点に収束できることを示す。
シミュレーションの結果は従来の非協調的な環境と比較して理論的な結果と優れた性能を示している。
論文 参考訳(メタデータ) (2020-10-06T16:51:09Z) - Adaptive Serverless Learning [114.36410688552579]
本研究では,データから学習率を動的に計算できる適応型分散学習手法を提案する。
提案アルゴリズムは, 作業者数に対して線形高速化が可能であることを示す。
通信効率のオーバーヘッドを低減するため,通信効率のよい分散訓練手法を提案する。
論文 参考訳(メタデータ) (2020-08-24T13:23:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。