論文の概要: FedDUAP: Federated Learning with Dynamic Update and Adaptive Pruning
Using Shared Data on the Server
- arxiv url: http://arxiv.org/abs/2204.11536v1
- Date: Mon, 25 Apr 2022 10:00:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-26 18:49:27.521720
- Title: FedDUAP: Federated Learning with Dynamic Update and Adaptive Pruning
Using Shared Data on the Server
- Title(参考訳): fedduap: 動的更新による連合学習とサーバ上の共有データを用いた適応的pruning
- Authors: Hong Zhang, Ji Liu, Juncheng Jia, Yang Zhou, Huaiyu Dai, Dejing Dou
- Abstract要約: フェデレーテッド・ラーニング(FL)は2つの重要な課題、すなわち限られた計算資源と訓練効率の低下に悩まされている。
本稿では,サーバ上の不感なデータとエッジデバイスの分散データを利用する新しいFLフレームワークであるFedDUAPを提案する。
提案するFLモデルであるFedDUAPは,2つの元の手法を統合することで,精度(最大4.8%),効率(最大2.8倍),計算コスト(最大61.9%)において,ベースラインアプローチを著しく上回っている。
- 参考スコア(独自算出の注目度): 64.94942635929284
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite achieving remarkable performance, Federated Learning (FL) suffers
from two critical challenges, i.e., limited computational resources and low
training efficiency. In this paper, we propose a novel FL framework, i.e.,
FedDUAP, with two original contributions, to exploit the insensitive data on
the server and the decentralized data in edge devices to further improve the
training efficiency. First, a dynamic server update algorithm is designed to
exploit the insensitive data on the server, in order to dynamically determine
the optimal steps of the server update for improving the convergence and
accuracy of the global model. Second, a layer-adaptive model pruning method is
developed to perform unique pruning operations adapted to the different
dimensions and importance of multiple layers, to achieve a good balance between
efficiency and effectiveness. By integrating the two original techniques
together, our proposed FL model, FedDUAP, significantly outperforms baseline
approaches in terms of accuracy (up to 4.8% higher), efficiency (up to 2.8
times faster), and computational cost (up to 61.9% smaller).
- Abstract(参考訳): 有意なパフォーマンスを達成したにもかかわらず、連合学習(fl)は2つの重要な課題、すなわち限られた計算資源と低い訓練効率に苦しむ。
本稿では,サーバ上の非センシティブデータとエッジデバイスにおける分散データを利用して,トレーニング効率をさらに向上させる新しいflフレームワーク,すなわちfeedduapを提案する。
まず、動的サーバ更新アルゴリズムは、サーバ更新の最適なステップを動的に決定し、グローバルモデルの収束と精度を向上させるために、サーバ上の無感データを活用するように設計されている。
第2に、異なる次元と複数の層の重要性に適応した独自のプルーニング操作を行うための層適応型モデルプルーニング法を開発し、効率と効率のバランスを良くする。
提案するFLモデルであるFedDUAPは,2つの元の手法を統合することで,精度(最大4.8%),効率(最大2.8倍),計算コスト(最大61.9%)において,ベースラインアプローチを著しく上回っている。
関連論文リスト
- Fisher Information-based Efficient Curriculum Federated Learning with Large Language Models [43.26028399395612]
本稿では,2つの新しい手法を用いたフィッシャー情報に基づく効率的なカリキュラムフェデレート学習フレームワーク(FibecFed)を提案する。
まず,各装置内のデータを適応的にサンプリングし,FL微調整プロセスの有効性を向上させるための漁師情報に基づく手法を提案する。
第2に,グローバルアグリゲーションのための適切なレイヤとLoRAによるローカル更新のためのスパースパラメータを動的に選択する。
論文 参考訳(メタデータ) (2024-09-30T18:12:18Z) - Tailored Federated Learning: Leveraging Direction Regulation & Knowledge Distillation [2.1670850691529275]
フェデレーション学習は、医療のようなプライバシーに敏感な領域において、変革的なトレーニングパラダイムとして登場した。
本稿では,モデルデルタ正則化,パーソナライズされたモデル,フェデレーションド・ナレッジ・蒸留,ミックスプールを統合したFL最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-09-29T15:39:39Z) - Efficient Federated Learning Using Dynamic Update and Adaptive Pruning with Momentum on Shared Server Data [59.6985168241067]
フェデレートラーニング(FL)は、低トレーニング効率と限られた計算資源の2つの重要な問題に遭遇する。
本稿では,サーバ上の共有不感データとエッジデバイスの分散データを活用するための新しいFLフレームワークであるFedDUMAPを提案する。
提案するFLモデルであるFedDUMAPは,従来の3つの手法を組み合わせることで,ベースラインアプローチと比較して性能が大幅に向上した。
論文 参考訳(メタデータ) (2024-08-11T02:59:11Z) - Training Heterogeneous Client Models using Knowledge Distillation in
Serverless Federated Learning [0.5510212613486574]
Federated Learning(FL)は、分散クライアント間で共有グローバルモデルの協調トレーニングを可能にする、新興の機械学習パラダイムである。
効率的なFLのためのシステム設計に関する最近の研究は、サーバーレスコンピューティング技術を利用することで、リソース効率が向上し、トレーニングコストが削減され、データホルダの複雑なインフラストラクチャ管理負担が軽減されることを示した。
論文 参考訳(メタデータ) (2024-02-11T20:15:52Z) - AEDFL: Efficient Asynchronous Decentralized Federated Learning with
Heterogeneous Devices [61.66943750584406]
異種環境におけるAEDFL(Asynchronous Efficient Decentralized FL framework)を提案する。
まず、FL収束を改善するための効率的なモデル集約手法を用いた非同期FLシステムモデルを提案する。
次に,より優れた精度を実現するために,動的安定化を考慮したモデル更新手法を提案する。
第3に,通信コストと計算コストを大幅に削減する適応スパース学習法を提案する。
論文 参考訳(メタデータ) (2023-12-18T05:18:17Z) - Federated Learning of Large Language Models with Parameter-Efficient
Prompt Tuning and Adaptive Optimization [71.87335804334616]
フェデレートラーニング(FL)は、分散データとの協調モデルトレーニングを可能にする、有望なパラダイムである。
LLM(Large Language Models)のトレーニングプロセスは一般的に重要なパラメータの更新を引き起こす。
本稿では,性能と効率を同時に向上する効率的な部分的プロンプトチューニング手法を提案する。
論文 参考訳(メタデータ) (2023-10-23T16:37:59Z) - Robust Learning with Progressive Data Expansion Against Spurious
Correlation [65.83104529677234]
本研究では,2層非線形畳み込みニューラルネットワークの学習過程について検討した。
分析の結果,不均衡なデータ群と学習容易なスプリアス特徴が学習過程におけるスプリアス特徴の優位性に繋がる可能性が示唆された。
本稿では,PDEと呼ばれる新たなトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-08T05:44:06Z) - Adaptive Serverless Learning [114.36410688552579]
本研究では,データから学習率を動的に計算できる適応型分散学習手法を提案する。
提案アルゴリズムは, 作業者数に対して線形高速化が可能であることを示す。
通信効率のオーバーヘッドを低減するため,通信効率のよい分散訓練手法を提案する。
論文 参考訳(メタデータ) (2020-08-24T13:23:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。