論文の概要: Adaptive Differential Filters for Fast and Communication-Efficient
Federated Learning
- arxiv url: http://arxiv.org/abs/2204.04424v1
- Date: Sat, 9 Apr 2022 08:23:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-12 13:32:02.104522
- Title: Adaptive Differential Filters for Fast and Communication-Efficient
Federated Learning
- Title(参考訳): 高速かつ通信効率の良いフェデレーション学習のための適応微分フィルタ
- Authors: Daniel Becking and Heiner Kirchhoffer and Gerhard Tech and Paul Haase
and Karsten M\"uller and Heiko Schwarz and Wojciech Samek
- Abstract要約: フェデレートラーニング(FL)シナリオは、クライアントとサーバ間で頻繁にニューラルネットワークのアップデートを送信することによって、大きな通信オーバーヘッドを生成する。
本稿では,FLプロセスのスパース更新を補う畳み込みフィルタの粒度で動作する新しいスケーリング手法を提案する。
提案手法は, より高速に収束し, 送信データの総量を最大377倍に削減しながら, 中央サーバモデルの性能を向上させる。
- 参考スコア(独自算出の注目度): 12.067586493399308
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) scenarios inherently generate a large communication
overhead by frequently transmitting neural network updates between clients and
server. To minimize the communication cost, introducing sparsity in conjunction
with differential updates is a commonly used technique. However, sparse model
updates can slow down convergence speed or unintentionally skip certain update
aspects, e.g., learned features, if error accumulation is not properly
addressed. In this work, we propose a new scaling method operating at the
granularity of convolutional filters which 1) compensates for highly sparse
updates in FL processes, 2) adapts the local models to new data domains by
enhancing some features in the filter space while diminishing others and 3)
motivates extra sparsity in updates and thus achieves higher compression
ratios, i.e., savings in the overall data transfer. Compared to unscaled
updates and previous work, experimental results on different computer vision
tasks (Pascal VOC, CIFAR10, Chest X-Ray) and neural networks (ResNets,
MobileNets, VGGs) in uni-, bidirectional and partial update FL settings show
that the proposed method improves the performance of the central server model
while converging faster and reducing the total amount of transmitted data by up
to 377 times.
- Abstract(参考訳): フェデレーション学習(fl)のシナリオは、クライアントとサーバ間でニューラルネットワークのアップデートを頻繁に送信することで、本質的に大きな通信オーバーヘッドを生み出す。
通信コストを最小限に抑えるため、差分更新とともに疎結合を導入することが一般的な手法である。
しかし、スパースモデル更新は収束速度を遅くしたり、例えば、エラーの蓄積が適切に対処されていない場合、学習した機能などの特定の更新側面を意図せずにスキップする。
本研究では,畳み込みフィルタの粒度を考慮した新しいスケーリング手法を提案する。
1)flプロセスにおける高度にスパースな更新を補償する。
2)フィルタ空間の機能強化による局所モデルを新たなデータ領域に適応させるとともに,他の部分も減少させる。
3)更新の余分なばらつきを動機付け、それによって圧縮率、すなわちデータ転送全体の節約を達成する。
コンピュータビジョンタスク(Pascal VOC, CIFAR10, Chest X-Ray)とニューラルネットワーク(ResNets, MobileNets, VGGs)の単方向, 双方向, 部分的な更新設定における実験結果から, 提案手法はより高速に収束し, 送信データ総量を最大377倍に削減し, 中央サーバモデルの性能を向上させることを示す。
関連論文リスト
- Reducing Data Bottlenecks in Distributed, Heterogeneous Neural Networks [5.32129361961937]
本稿では,組込みマルチコアおよびマルチコアシステムにおいて,ボトルネックサイズがディープラーニングモデルの性能に与える影響について検討する。
ハードウェア・ソフトウェア共同設計手法を適用し,データトラフィックを減らすため,データボトルネックを極めて狭い層に置き換える。
ハードウェア側の評価では、より高いボトルネック比が、ニューラルネットワークの層間でのデータ転送量を大幅に削減することを示している。
論文 参考訳(メタデータ) (2024-10-12T21:07:55Z) - Efficient Federated Learning Using Dynamic Update and Adaptive Pruning with Momentum on Shared Server Data [59.6985168241067]
フェデレートラーニング(FL)は、低トレーニング効率と限られた計算資源の2つの重要な問題に遭遇する。
本稿では,サーバ上の共有不感データとエッジデバイスの分散データを活用するための新しいFLフレームワークであるFedDUMAPを提案する。
提案するFLモデルであるFedDUMAPは,従来の3つの手法を組み合わせることで,ベースラインアプローチと比較して性能が大幅に向上した。
論文 参考訳(メタデータ) (2024-08-11T02:59:11Z) - High-Dimensional Distributed Sparse Classification with Scalable Communication-Efficient Global Updates [50.406127962933915]
我々はコミュニケーション効率のよい分散ロジスティック回帰モデルを学ぶことができる問題に対する解決策を開発する。
実験では、いくつかの分散更新ステップだけで、分散アルゴリズムよりも精度が大幅に向上することを示した。
論文 参考訳(メタデータ) (2024-07-08T19:34:39Z) - Over-the-Air Federated Learning and Optimization [52.5188988624998]
エッジ・ザ・エア計算(AirComp)によるフェデレーション学習(FL)に焦点を当てる。
本稿では,AirComp ベースの FedAvg (AirFedAvg) アルゴリズムの凸および非凸条件下での収束について述べる。
エッジデバイス(モデル、勾配、モデル差など)で送信できるローカルアップデートの種類によって、AirFedAvgで送信するとアグリゲーションエラーが発生する可能性がある。
さらに、より実用的な信号処理方式を検討し、通信効率を改善し、これらの信号処理方式によって引き起こされるモデル集約誤差の異なる形式に収束解析を拡張する。
論文 参考訳(メタデータ) (2023-10-16T05:49:28Z) - FLARE: Detection and Mitigation of Concept Drift for Federated Learning
based IoT Deployments [2.7776688429637466]
FLAREは、トレーニングデータを条件付きで転送し、エッジとセンサのエンドポイント間でモデルをデプロイする、軽量なデュアルスケジューリングFLフレームワークである。
固定間隔スケジューリング法と比較して,FLAREはエッジノードとセンサノード間で交換されるデータ量を大幅に削減できることを示す。
少なくとも16倍のレイテンシで、コンセプトドリフトを反応的に検出できる。
論文 参考訳(メタデータ) (2023-05-15T10:09:07Z) - Federated Progressive Sparsification (Purge, Merge, Tune)+ [15.08232397899507]
FedSparsifyは、プログレッシブ・ウェイト・マグニチュード・プルーニングに基づくスパーシフィケーション戦略である。
我々は,FedSparsifyが高空間性と学習性能の両方のサブネットワークを学習できることを実験的に示す。
論文 参考訳(メタデータ) (2022-04-26T16:45:53Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Federated Dynamic Sparse Training: Computing Less, Communicating Less,
Yet Learning Better [88.28293442298015]
Federated Learning (FL)は、クラウドからリソース制限されたエッジデバイスへの機械学習ワークロードの分散を可能にする。
我々は、FedDST(Federated Dynamic Sparse Training)と呼ばれる新しいFLフレームワークを開発し、実装し、実験的に検証する。
FedDSTは、ターゲットのフルネットワークからスパースサブネットワークを抽出し、訓練する動的プロセスである。
論文 参考訳(メタデータ) (2021-12-18T02:26:38Z) - Slashing Communication Traffic in Federated Learning by Transmitting
Clustered Model Updates [12.660500431713336]
Federated Learning(FL)は、複数のクライアントが共同で学習モデルをトレーニングできる、新たな分散型学習フレームワークである。
クライアントとパラメータサーバ間のインターネットを介してモデル更新を交換することで、通信トラフィックが増大する可能性がある。
本研究では,ソフトウェアクラスタリング(MUCSC)によるモデル更新圧縮を考案し,クライアントとPS間で送信されるモデル更新を圧縮する。
論文 参考訳(メタデータ) (2021-05-10T07:15:49Z) - FedAT: A High-Performance and Communication-Efficient Federated Learning
System with Asynchronous Tiers [22.59875034596411]
非i.d.データに基づく非同期タイアを用いた新しいフェデレーション学習手法であるFederated Learning法であるFedATを提案する。
FedATは、収束速度とテスト精度を改善したストラグラー効果を最小化する。
その結果、FedATは予測性能を最大21.09%改善し、最先端FL法と比較して通信コストを最大8.5倍削減した。
論文 参考訳(メタデータ) (2020-10-12T18:38:51Z) - Over-the-Air Federated Learning from Heterogeneous Data [107.05618009955094]
フェデレートラーニング(Federated Learning、FL)は、集中型モデルの分散ラーニングのためのフレームワークである。
我々は,共通局所勾配勾配勾配(SGD)FLアルゴリズムを強化するコンバージェント OTA FL (COTAF) アルゴリズムを開発した。
我々は,COTAFにより誘導されるプリコーディングが,OTA FLを用いて訓練されたモデルの収束率と精度を顕著に向上させることを示す。
論文 参考訳(メタデータ) (2020-09-27T08:28:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。