論文の概要: Improving Federated Aggregation with Deep Unfolding Networks
- arxiv url: http://arxiv.org/abs/2306.17362v1
- Date: Fri, 30 Jun 2023 01:51:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-03 13:42:07.821470
- Title: Improving Federated Aggregation with Deep Unfolding Networks
- Title(参考訳): ディープ展開ネットワークによるフェデレーションアグリゲーションの改善
- Authors: Shanika I Nanayakkara, Shiva Raj Pokhrel, Gang Li
- Abstract要約: フェデレートラーニング(FL)は、デバイスの違いやクライアント間の統計的特徴に負の影響を受ける。
我々は、不均一性の悪影響を不偏に改善する適応重みを学習するディープ・アンフォールディング・ネットワーク(DUN)ベースの手法を導入する。
提案手法は,精度と品質に配慮したアグリゲーションを示す。
- 参考スコア(独自算出の注目度): 19.836640510604422
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The performance of Federated learning (FL) is negatively affected by device
differences and statistical characteristics between participating clients. To
address this issue, we introduce a deep unfolding network (DUN)-based technique
that learns adaptive weights that unbiasedly ameliorate the adverse impacts of
heterogeneity. The proposed method demonstrates impressive accuracy and
quality-aware aggregation. Furthermore, it evaluated the best-weighted
normalization approach to define less computational power on the aggregation
method. The numerical experiments in this study demonstrate the effectiveness
of this approach and provide insights into the interpretability of the unbiased
weights learned.
By incorporating unbiased weights into the model, the proposed approach
effectively addresses quality-aware aggregation under the heterogeneity of the
participating clients and the FL environment. Codes and details are
\href{https://github.com/shanikairoshi/Improved_DUN_basedFL_Aggregation}{here}.
- Abstract(参考訳): フェデレーション学習(fl)の性能は,デバイス差や参加者間の統計的特性に負の影響を受けている。
この問題に対処するために,不均一性の悪影響を無バイアスに改善する適応重みを学習する,dun(deep unfolding network)ベースの手法を提案する。
提案手法は印象的な精度と品質把握アグリゲーションを示す。
さらに,アグリゲーション法における計算能力の低下を定義するため,最強正規化手法の評価を行った。
本研究における数値実験は,本手法の有効性を実証し,学習した未偏重の解釈可能性に関する知見を提供する。
モデルに偏りのない重みを組み込むことにより、提案手法は、参加するクライアントとFL環境の不均一性の下で品質を考慮したアグリゲーションを効果的に解決する。
コードと詳細は \href{https://github.com/shanikairoshi/Improved_DUN_basedFL_Aggregation}{here} である。
関連論文リスト
- Interaction-Aware Gaussian Weighting for Clustered Federated Learning [58.92159838586751]
フェデレートラーニング(FL)は、プライバシを維持しながらモデルをトレーニングするための分散パラダイムとして登場した。
本稿では,新たなクラスタリングFL法であるFedGWC(Federated Gaussian Weighting Clustering)を提案する。
ベンチマークデータセットを用いた実験により,FedGWCはクラスタの品質と分類精度において,既存のFLアルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-02-05T16:33:36Z) - Federated Testing (FedTest): A New Scheme to Enhance Convergence and Mitigate Adversarial Attacks in Federating Learning [35.14491996649841]
フェデレーション学習のためのフェデレーションテスト(FedTest)と呼ばれる新しいフェデレーション学習フレームワークを導入する。
FedTestでは、特定のユーザのローカルデータは、そのユーザのモデルをトレーニングし、他のユーザのモデルをテストするために使用されます。
数値解析の結果,提案手法は収束率を加速するだけでなく,悪意のあるユーザの影響を低減させる。
論文 参考訳(メタデータ) (2025-01-19T21:01:13Z) - Over-the-Air Fair Federated Learning via Multi-Objective Optimization [52.295563400314094]
本稿では,公平なFLモデルを訓練するためのOTA-FFL(Over-the-air Fair Federated Learning Algorithm)を提案する。
OTA-FFLの公正性とロバストな性能に対する優位性を示す実験を行った。
論文 参考訳(メタデータ) (2025-01-06T21:16:51Z) - Addressing Data Heterogeneity in Federated Learning with Adaptive Normalization-Free Feature Recalibration [1.33512912917221]
フェデレートラーニング(Federated Learning)は、ステークホルダーのデータ所有を保護し、パフォーマンスと一般化を改善した分散コラボレーティブトレーニングパラダイムである。
本稿では、重み付け標準化とチャネルアテンションを組み合わせたアーキテクチャレベルの手法である、適応正規化自由特徴校正(ANFR)を提案する。
論文 参考訳(メタデータ) (2024-10-02T20:16:56Z) - The Risk of Federated Learning to Skew Fine-Tuning Features and
Underperform Out-of-Distribution Robustness [50.52507648690234]
フェデレートされた学習は、微調整された特徴をスキイングし、モデルの堅牢性を損なうリスクがある。
3つのロバスト性指標を導入し、多様なロバストデータセットで実験を行う。
提案手法は,パラメータ効率のよい微調整手法を含む多種多様なシナリオにまたがるロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2024-01-25T09:18:51Z) - Aggregation Weighting of Federated Learning via Generalization Bound
Estimation [65.8630966842025]
フェデレートラーニング(FL)は通常、サンプル比率によって決定される重み付けアプローチを使用して、クライアントモデルパラメータを集約する。
上記の重み付け法を,各局所モデルの一般化境界を考慮した新しい戦略に置き換える。
論文 参考訳(メタデータ) (2023-11-10T08:50:28Z) - Enabling Quartile-based Estimated-Mean Gradient Aggregation As Baseline
for Federated Image Classifications [5.5099914877576985]
Federated Learning(FL)は、機密データを保護し、モデルパフォーマンスを改善しながら、分散コラボレーションを可能にすることによって、ディープニューラルネットワークのトレーニング方法に革命をもたらした。
本稿では,これらの課題に対処するだけでなく,FLシステムにおける高度な集約技術に対して$mathsfbaseline$として基本的な参照ポイントを提供する,Estimated Mean Aggregation (EMA) という革新的なソリューションを紹介する。
論文 参考訳(メタデータ) (2023-09-21T17:17:28Z) - Reinforcement Federated Learning Method Based on Adaptive OPTICS
Clustering [19.73560248813166]
本稿では,フェデレート学習のための適応型OPTICSクラスタリングアルゴリズムを提案する。
クラスタリング環境をMarkov決定プロセスとして認識することで、OPTICSクラスタの最良のパラメータを見つけることがゴールです。
本手法の信頼性と実用性は, 実験データから検証され, 有効性と優越性が確認された。
論文 参考訳(メタデータ) (2023-06-22T13:11:19Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。