論文の概要: Dynamic Network-Assisted D2D-Aided Coded Distributed Learning
- arxiv url: http://arxiv.org/abs/2111.14789v1
- Date: Fri, 26 Nov 2021 18:44:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-30 18:30:26.619228
- Title: Dynamic Network-Assisted D2D-Aided Coded Distributed Learning
- Title(参考訳): 動的ネットワーク支援D2D支援コード分散学習
- Authors: Nikita Zeulin, Olga Galinina, Nageen Himayat, Sergey Andreev, Robert
W. Heath Jr
- Abstract要約: 本稿では,デバイス間のロードバランシングのための新しいデバイス・ツー・デバイス(D2D)支援型符号化学習手法(D2D-CFL)を提案する。
最小処理時間を達成するための最適圧縮率を導出し、収束時間との接続を確立する。
提案手法は,ユーザが継続的にトレーニングデータを生成するリアルタイム協調アプリケーションに有用である。
- 参考スコア(独自算出の注目度): 59.29409589861241
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Today, various machine learning (ML) applications offer continuous data
processing and real-time data analytics at the edge of a wireless network.
Distributed ML solutions are seriously challenged by resource heterogeneity, in
particular, the so-called straggler effect. To address this issue, we design a
novel device-to-device (D2D)-aided coded federated learning method (D2D-CFL)
for load balancing across devices while characterizing privacy leakage. The
proposed solution captures system dynamics, including data (time-dependent
learning model, varied intensity of data arrivals), device (diverse
computational resources and volume of training data), and deployment (varied
locations and D2D graph connectivity). We derive an optimal compression rate
for achieving minimum processing time and establish its connection with the
convergence time. The resulting optimization problem provides suboptimal
compression parameters, which improve the total training time. Our proposed
method is beneficial for real-time collaborative applications, where the users
continuously generate training data.
- Abstract(参考訳): 今日では、さまざまな機械学習(ML)アプリケーションが、無線ネットワークの端で連続的なデータ処理とリアルタイムなデータ分析を提供している。
分散MLソリューションは資源の不均一性、特にいわゆるストラグラー効果によって深刻な課題を抱えている。
この問題に対処するため,プライバシリークを特徴付けるとともに,デバイス間のロードバランシングを実現する新しいデバイス・ツー・デバイス支援符号化学習法(D2D-CFL)を設計した。
提案手法は,データ(時間依存学習モデル,データの到着強度の変動),デバイス(各種計算資源とトレーニングデータのボリューム),デプロイメント(分散位置とD2Dグラフ接続)などのシステムダイナミクスをキャプチャする。
最小処理時間を達成するための最適圧縮率を導出し、収束時間との接続を確立する。
結果として生じる最適化問題は、全トレーニング時間を改善する準最適圧縮パラメータを提供する。
提案手法は,ユーザが継続的にトレーニングデータを生成するリアルタイム協調アプリケーションに有用である。
関連論文リスト
- Device Sampling and Resource Optimization for Federated Learning in Cooperative Edge Networks [17.637761046608]
フェデレーテッド・ラーニング(FedL)は、サーバによって定期的に集約されたローカルモデルをトレーニングすることで、機械学習(ML)をワーカーデバイスに分散させる。
FedLは、同時代の無線ネットワークの2つの重要な特徴を無視している: (i) ネットワークには異種通信/計算資源が含まれており、 (ii) デバイスのローカルデータ分布にかなりの重複がある可能性がある。
デバイス間オフロード(D2D)によって補完されるインテリジェントデバイスサンプリングにより,これらの要因を共同で考慮する新しい最適化手法を開発した。
論文 参考訳(メタデータ) (2023-11-07T21:17:59Z) - DYNAMITE: Dynamic Interplay of Mini-Batch Size and Aggregation Frequency
for Federated Learning with Static and Streaming Dataset [23.11152686493894]
Federated Learning(FL)は、異種エッジデバイスをコーディネートして、プライベートデータを共有せずにモデルトレーニングを実行する分散学習パラダイムである。
本稿では、バッチサイズと集約周波数の相互作用を利用して、動的FLトレーニングにおける収束、コスト、完了時間間のトレードオフをナビゲートする新しい解析モデルと最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-20T08:36:12Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - Asynchronous Multi-Model Dynamic Federated Learning over Wireless
Networks: Theory, Modeling, and Optimization [20.741776617129208]
分散機械学習(ML)の鍵となる技術として、フェデレートラーニング(FL)が登場した。
まず、システムパラメータが学習性能に与える影響を捉えるために、長方形のスケジューリングステップと関数を定式化する。
我々の分析は、デバイストレーニング変数と非同期スケジューリング決定の協調的影響に光を当てている。
論文 参考訳(メタデータ) (2023-05-22T21:39:38Z) - Dynamic Scheduling for Federated Edge Learning with Streaming Data [56.91063444859008]
我々は,長期的エネルギー制約のある分散エッジデバイスにおいて,トレーニングデータを時間とともにランダムに生成するフェデレーションエッジ学習(FEEL)システムを検討する。
限られた通信リソースとレイテンシ要件のため、各イテレーションでローカルトレーニングプロセスに参加するのはデバイスのサブセットのみである。
論文 参考訳(メタデータ) (2023-05-02T07:41:16Z) - Coded Matrix Computations for D2D-enabled Linearized Federated Learning [26.086036387834866]
Federated Learning(FL)は、クライアントデバイスに分散したデータのグローバルモデルをトレーニングするための一般的なテクニックである。
最近の研究は、デバイス間デバイス(D2D)のオフロードを通じてこの問題に対処することを提案している。
本稿では,通信遅延やプライバシの問題を大幅に軽減できる符号化行列計算のためのストラグラー最適化手法を提案する。
論文 参考訳(メタデータ) (2023-02-23T20:01:46Z) - Parallel Successive Learning for Dynamic Distributed Model Training over
Heterogeneous Wireless Networks [50.68446003616802]
フェデレートラーニング(Federated Learning, FedL)は、一連の無線デバイスにモデルトレーニングを配布する一般的なテクニックとして登場した。
我々は,FedLアーキテクチャを3次元に拡張した並列逐次学習(PSL)を開発した。
我々の分析は、分散機械学習におけるコールド対ウォームアップモデルの概念とモデル慣性について光を当てている。
論文 参考訳(メタデータ) (2022-02-07T05:11:01Z) - Adaptive Anomaly Detection for Internet of Things in Hierarchical Edge
Computing: A Contextual-Bandit Approach [81.5261621619557]
階層エッジコンピューティング(HEC)を用いた適応型異常検出手法を提案する。
まず,複雑性を増した複数のDNNモデルを構築し,それぞれを対応するHEC層に関連付ける。
そこで我々は、文脈帯域問題として定式化され、強化学習ポリシーネットワークを用いて解決される適応モデル選択スキームを設計する。
論文 参考訳(メタデータ) (2021-08-09T08:45:47Z) - Deep Cellular Recurrent Network for Efficient Analysis of Time-Series
Data with Spatial Information [52.635997570873194]
本研究では,空間情報を用いた複雑な多次元時系列データを処理するための新しいディープセルリカレントニューラルネットワーク(DCRNN)アーキテクチャを提案する。
提案するアーキテクチャは,文献に比較して,学習可能なパラメータをかなり少なくしつつ,最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-01-12T20:08:18Z) - Device Sampling for Heterogeneous Federated Learning: Theory,
Algorithms, and Implementation [24.084053136210027]
グラフシーケンシャル畳み込みネットワーク(GCN)に基づくサンプリング手法を開発した。
提案手法は,全機器の5%以下をサンプリングしながら,訓練されたモデル精度と必要なリソース利用の両面で,fedl(federated learning)を実質的に上回っている。
論文 参考訳(メタデータ) (2021-01-04T05:59:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。