論文の概要: AdaFed: Fair Federated Learning via Adaptive Common Descent Direction
- arxiv url: http://arxiv.org/abs/2401.04993v1
- Date: Wed, 10 Jan 2024 08:22:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-11 15:03:21.529233
- Title: AdaFed: Fair Federated Learning via Adaptive Common Descent Direction
- Title(参考訳): AdaFed:Adaptive Common Descent Directionによる公正なフェデレーション学習
- Authors: Shayan Mohajer Hamidi, En-Hui Yang
- Abstract要約: フェデレートラーニング(FL)は、エッジデバイスやクライアントがサーバによって編成された機械学習モデルを協調的にトレーニングする、有望な技術である。
AdaFedは、すべてのクライアントの損失関数が減少しているサーバーの更新方向を見つけることを目的としている。
AdaFedは局所勾配と損失関数の値に基づいて、この共通方向を適応的に調整する。
我々は、AdaFedが一連のデータセットに対して有効であることを検証するとともに、AdaFedが最先端のフェアFL法より優れていることを示す。
- 参考スコア(独自算出の注目度): 4.567223151852012
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Federated learning (FL) is a promising technology via which some edge
devices/clients collaboratively train a machine learning model orchestrated by
a server. Learning an unfair model is known as a critical problem in federated
learning, where the trained model may unfairly advantage or disadvantage some
of the devices. To tackle this problem, in this work, we propose AdaFed. The
goal of AdaFed is to find an updating direction for the server along which (i)
all the clients' loss functions are decreasing; and (ii) more importantly, the
loss functions for the clients with larger values decrease with a higher rate.
AdaFed adaptively tunes this common direction based on the values of local
gradients and loss functions. We validate the effectiveness of AdaFed on a
suite of federated datasets, and demonstrate that AdaFed outperforms
state-of-the-art fair FL methods.
- Abstract(参考訳): フェデレートラーニング(FL)は、エッジデバイスやクライアントがサーバによって編成された機械学習モデルを協調的にトレーニングする、有望な技術である。
不公平なモデルを学ぶことは、訓練されたモデルがいくつかのデバイスに不公平に有利あるいは不利な可能性があるフェデレーション学習において、重要な問題として知られている。
この問題に対処するため,本稿ではAdaFedを提案する。
AdaFedの目標は、サーバの更新方向を見つけることだ。
(i)すべてのクライアントの損失関数が減少している。
(ii)より重要なことは、より大きい値を持つクライアントの損失関数は、より高いレートで減少する。
adafedはこの共通の方向を局所勾配と損失関数の値に基づいて適応的に調整する。
我々は、AdaFedが一連のデータセットに対して有効であることを検証するとともに、AdaFedが最先端のフェアFL法より優れていることを示す。
関連論文リスト
- Heterogeneity-Aware Resource Allocation and Topology Design for Hierarchical Federated Edge Learning [9.900317349372383]
Federated Learning (FL)は、モバイルデバイス上で機械学習モデルをトレーニングするためのプライバシー保護フレームワークを提供する。
従来のFLアルゴリズム、例えばFedAvgはこれらのデバイスに重い通信負荷を課す。
エッジデバイスをエッジサーバに接続し,エッジサーバをピアツーピア(P2P)エッジバックホールを介して相互接続する2層HFELシステムを提案する。
我々の目標は、戦略的資源配分とトポロジ設計により、HFELシステムの訓練効率を向上させることである。
論文 参考訳(メタデータ) (2024-09-29T01:48:04Z) - Federated Meta-Learning for Few-Shot Fault Diagnosis with Representation
Encoding [21.76802204235636]
本稿では,数発の故障診断のための表現符号化ベースフェデレーションメタラーニング(REFML)を提案する。
REFMLは、トレーニングクライアントの固有の一般化を活用して、効果的に、アウト・オブ・ディストリビューションの利点に変換する。
同じ機器の非表示作業条件でテストすると2.17%-6.50%、全く見えない機器でテストすると13.44%-18.33%の精度で精度が向上する。
論文 参考訳(メタデータ) (2023-10-13T10:48:28Z) - Forgettable Federated Linear Learning with Certified Data Unlearning [34.532114070245576]
フェデレート・アンラーニング(FU)は、FLでのトレーニングを必要とせずに、"忘れられる権利"と、有毒なクライアントの影響を未学習にすることへの要求に対処するために登場した。
ほとんどのFUアルゴリズムは、保持またはターゲットクライアント(未学習のクライアント)、追加の通信オーバーヘッド、潜在的なセキュリティリスクの協力を必要とする。
我々は、クライアントとの通信や追加ストレージを必要とせず、サーバがターゲットクライアントを解放することを可能にする、認証され、効率的で、セキュアな未学習戦略であるFedRemovalを提案する。
論文 参考訳(メタデータ) (2023-06-03T23:53:57Z) - FL Games: A Federated Learning Framework for Distribution Shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するフェデレーション学習のためのゲーム理論フレームワークFL GAMESを提案する。
論文 参考訳(メタデータ) (2022-10-31T22:59:03Z) - Federated Learning and Meta Learning: Approaches, Applications, and
Directions [94.68423258028285]
本稿では,FL,メタラーニング,フェデレーションメタラーニング(FedMeta)について概観する。
他のチュートリアルと異なり、私たちの目標はFL、メタラーニング、FedMetaの方法論をどのように設計、最適化、進化させ、無線ネットワーク上で応用するかを探ることです。
論文 参考訳(メタデータ) (2022-10-24T10:59:29Z) - FedFM: Anchor-based Feature Matching for Data Heterogeneity in Federated
Learning [91.74206675452888]
本稿では,各クライアントの特徴を共有カテゴリーのアンカーにマッチさせる新しいFedFM法を提案する。
効率と柔軟性を向上させるため,FedFM-Liteと呼ばれるFedFM変種を提案し,クライアントは同期時間と通信帯域幅のコストを少なくしてサーバと通信する。
論文 参考訳(メタデータ) (2022-10-14T08:11:34Z) - FedCos: A Scene-adaptive Federated Optimization Enhancement for
Performance Improvement [11.687451505965655]
我々は,コサイン類似性ペナルティを導入することにより,局所モデルの方向性の不整合を低減するFedCosを提案する。
我々は、FedCosがよく知られたベースラインより優れており、様々なFLシーンでそれらを強化できることを示す。
FedCosの助けを借りて、複数のFLメソッドは、同等の性能のモデルを得るために、以前よりもはるかに少ない通信ラウンドを必要とする。
論文 参考訳(メタデータ) (2022-04-07T02:59:54Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - No One Left Behind: Inclusive Federated Learning over Heterogeneous
Devices [79.16481453598266]
この問題に対処するクライアント包摂的フェデレーション学習手法であるInclusiveFLを提案する。
InclusiveFLの中核となる考え方は、異なるサイズのモデルを異なる計算能力を持つクライアントに割り当てることである。
また,異なる大きさの複数の局所モデル間で知識を共有する効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-02-16T13:03:27Z) - DearFSAC: An Approach to Optimizing Unreliable Federated Learning via
Deep Reinforcement Learning [3.516494777812123]
本稿では,DearFSAC (Defect-AwaRe Federated soft actor-critic) を提案する。
DearFSACは、独立および同一分散(IID)と非IID設定の2つのデータセットに対して、既存の3つのアプローチより優れている。
論文 参考訳(メタデータ) (2022-01-30T01:47:43Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。