論文の概要: Coded Matrix Computations for D2D-enabled Linearized Federated Learning
- arxiv url: http://arxiv.org/abs/2302.12305v1
- Date: Thu, 23 Feb 2023 20:01:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-27 15:28:17.124047
- Title: Coded Matrix Computations for D2D-enabled Linearized Federated Learning
- Title(参考訳): d2d対応線形連合学習のための符号化行列計算
- Authors: Anindya Bijoy Das, Aditya Ramamoorthy, David J. Love, Christopher G.
Brinton
- Abstract要約: Federated Learning(FL)は、クライアントデバイスに分散したデータのグローバルモデルをトレーニングするための一般的なテクニックである。
最近の研究は、デバイス間デバイス(D2D)のオフロードを通じてこの問題に対処することを提案している。
本稿では,通信遅延やプライバシの問題を大幅に軽減できる符号化行列計算のためのストラグラー最適化手法を提案する。
- 参考スコア(独自算出の注目度): 26.086036387834866
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) is a popular technique for training a global model on
data distributed across client devices. Like other distributed training
techniques, FL is susceptible to straggler (slower or failed) clients. Recent
work has proposed to address this through device-to-device (D2D) offloading,
which introduces privacy concerns. In this paper, we propose a novel
straggler-optimal approach for coded matrix computations which can
significantly reduce the communication delay and privacy issues introduced from
D2D data transmissions in FL. Moreover, our proposed approach leads to a
considerable improvement of the local computation speed when the generated data
matrix is sparse. Numerical evaluations confirm the superiority of our proposed
method over baseline approaches.
- Abstract(参考訳): Federated Learning(FL)は、クライアントデバイスに分散したデータのグローバルモデルをトレーニングするための一般的なテクニックである。
他の分散トレーニングテクニックと同様に、FLはストラグラー(スローまたはフェール)クライアントに影響を受けやすい。
最近の研究は、デバイス間デバイス(D2D)のオフロードを通じてこの問題に対処することを提案した。
本稿では,FLにおけるD2Dデータ伝送から生じる通信遅延やプライバシー問題を大幅に低減できる,符号化行列計算のためのストラグラー最適化手法を提案する。
さらに,提案手法は,生成されたデータ行列がスパースする場合の局所計算速度を大幅に向上させる。
提案手法がベースライン法よりも優れていることを示す数値評価を行った。
関連論文リスト
- Device Sampling and Resource Optimization for Federated Learning in Cooperative Edge Networks [17.637761046608]
フェデレーテッド・ラーニング(FedL)は、サーバによって定期的に集約されたローカルモデルをトレーニングすることで、機械学習(ML)をワーカーデバイスに分散させる。
FedLは、同時代の無線ネットワークの2つの重要な特徴を無視している: (i) ネットワークには異種通信/計算資源が含まれており、 (ii) デバイスのローカルデータ分布にかなりの重複がある可能性がある。
デバイス間オフロード(D2D)によって補完されるインテリジェントデバイスサンプリングにより,これらの要因を共同で考慮する新しい最適化手法を開発した。
論文 参考訳(メタデータ) (2023-11-07T21:17:59Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - Gradient Sparsification for Efficient Wireless Federated Learning with
Differential Privacy [25.763777765222358]
フェデレートラーニング(FL)により、分散クライアントは、生データを互いに共有することなく、機械学習モデルを協調的にトレーニングできる。
モデルのサイズが大きくなるにつれて、送信帯域の制限によるトレーニングのレイテンシが低下し、個人情報が劣化すると同時に、差分プライバシ(DP)保護を使用する。
我々は、収束性能を犠牲にすることなく、トレーニング効率を向上させるために、FLフレームワーク無線チャネルのスペース化を提案する。
論文 参考訳(メタデータ) (2023-04-09T05:21:15Z) - sqSGD: Locally Private and Communication Efficient Federated Learning [14.60645909629309]
Federated Learning(FL)は、分散データソースから機械学習モデルをトレーニングするテクニックである。
我々は,通信効率と高次元互換性に対処するsqSGDという勾配学習アルゴリズムを開発した。
実験の結果、sqSGDはローカルのプライバシー制約でLeNetやResNetのような大規模なモデルをうまく学習している。
論文 参考訳(メタデータ) (2022-06-21T17:45:35Z) - Over-the-Air Federated Learning via Second-Order Optimization [37.594140209854906]
フェデレートラーニング(FL)は、無線ネットワーク上でのタスク指向のデータトラフィックを、限られた無線リソースによって引き起こす可能性がある。
本稿では,通信ラウンドを同時に削減し,低レイテンシなグローバルモデルアグリゲーションを実現するために,空対2次フェデレーション最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-29T12:39:23Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Dynamic Network-Assisted D2D-Aided Coded Distributed Learning [59.29409589861241]
本稿では,デバイス間のロードバランシングのための新しいデバイス・ツー・デバイス(D2D)支援型符号化学習手法(D2D-CFL)を提案する。
最小処理時間を達成するための最適圧縮率を導出し、収束時間との接続を確立する。
提案手法は,ユーザが継続的にトレーニングデータを生成するリアルタイム協調アプリケーションに有用である。
論文 参考訳(メタデータ) (2021-11-26T18:44:59Z) - Learning from Images: Proactive Caching with Parallel Convolutional
Neural Networks [94.85780721466816]
本稿では,プロアクティブキャッシングのための新しいフレームワークを提案する。
モデルベースの最適化とデータ駆動技術を組み合わせて、最適化問題をグレースケールのイメージに変換する。
数値計算の結果,提案手法は71.6%の計算時間を0.8%のコストで削減できることがわかった。
論文 参考訳(メタデータ) (2021-08-15T21:32:47Z) - LoRD-Net: Unfolded Deep Detection Network with Low-Resolution Receivers [104.01415343139901]
本稿では,1ビット計測から情報シンボルを復元する「LoRD-Net」というディープ検出器を提案する。
LoRD-Netは、関心のシグナルを回復するためのタスクベースのアーキテクチャである。
無線通信における1ビット信号回復のためのレシーバアーキテクチャの評価を行った。
論文 参考訳(メタデータ) (2021-02-05T04:26:05Z) - A Compressive Sensing Approach for Federated Learning over Massive MIMO
Communication Systems [82.2513703281725]
フェデレートラーニング(Federated Learning)は、無線デバイスとのコラボレーションによって、中央サーバでグローバルモデルをトレーニングするための、プライバシ保護のアプローチである。
本稿では,大規模マルチインプット多出力通信システム上でのフェデレーション学習のための圧縮センシング手法を提案する。
論文 参考訳(メタデータ) (2020-03-18T05:56:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。