論文の概要: Federated Fairness Analytics: Quantifying Fairness in Federated Learning
- arxiv url: http://arxiv.org/abs/2408.08214v1
- Date: Thu, 15 Aug 2024 15:23:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-16 13:26:45.320074
- Title: Federated Fairness Analytics: Quantifying Fairness in Federated Learning
- Title(参考訳): フェデレーション・フェアネス分析 : フェデレーション・ラーニングにおけるフェアネスの定量化
- Authors: Oscar Dilley, Juan Marcelo Parra-Ullauri, Rasheed Hussain, Dimitra Simeonidou,
- Abstract要約: Federated Learning(FL)は、分散MLのためのプライバシ強化技術である。
FLは古典的なMLから公平性の問題を受け継ぎ、新しいものを導入している。
公正度を測定するための方法論であるフェデレートフェアネス分析を提案する。
- 参考スコア(独自算出の注目度): 2.9674793945631097
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) is a privacy-enhancing technology for distributed ML. By training models locally and aggregating updates - a federation learns together, while bypassing centralised data collection. FL is increasingly popular in healthcare, finance and personal computing. However, it inherits fairness challenges from classical ML and introduces new ones, resulting from differences in data quality, client participation, communication constraints, aggregation methods and underlying hardware. Fairness remains an unresolved issue in FL and the community has identified an absence of succinct definitions and metrics to quantify fairness; to address this, we propose Federated Fairness Analytics - a methodology for measuring fairness. Our definition of fairness comprises four notions with novel, corresponding metrics. They are symptomatically defined and leverage techniques originating from XAI, cooperative game-theory and networking engineering. We tested a range of experimental settings, varying the FL approach, ML task and data settings. The results show that statistical heterogeneity and client participation affect fairness and fairness conscious approaches such as Ditto and q-FedAvg marginally improve fairness-performance trade-offs. Using our techniques, FL practitioners can uncover previously unobtainable insights into their system's fairness, at differing levels of granularity in order to address fairness challenges in FL. We have open-sourced our work at: https://github.com/oscardilley/federated-fairness.
- Abstract(参考訳): Federated Learning(FL)は、分散MLのためのプライバシ強化技術である。
モデルをローカルにトレーニングし、更新を集約することで、フェデレーションは集中したデータ収集をバイパスしながら、一緒に学習する。
FLは医療、金融、パーソナルコンピューティングでますます人気がある。
しかし、従来のMLから公平性の問題を受け継ぎ、データ品質、クライアント参加、通信制約、アグリゲーションメソッド、基盤となるハードウェアの違いによって、新しいものを導入している。
フェアネスは依然として未解決の問題であり、コミュニティはフェアネスを定量化するための簡潔な定義とメトリクスが欠如していることを特定している。
公平性の定義は、新しい、対応するメトリクスを持つ4つの概念から構成される。
それらはシンプトマティックに定義され、XAI、協調ゲーム理論、ネットワーク工学から派生した技術を活用している。
FLアプローチ、MLタスク、データ設定など、さまざまな実験的な設定をテストしました。
その結果、統計的不均一性とクライアント参加は、ディットやq-FedAvgのような公正性と公正意識のアプローチに影響を及ぼし、公正性とパフォーマンスのトレードオフを極端に改善することが示された。
FL実践者は,本手法を用いることで,FLの公平性問題に対処するために,システムの公正性に関する既往の洞察を,粒度の異なるレベルで発見することができる。
https://github.com/oscardilley/federated-fairness。
関連論文リスト
- Accurate Forgetting for Heterogeneous Federated Continual Learning [89.08735771893608]
提案手法は,フェデレーションネットワークにおける従来の知識を選択的に活用する新しい生成再生手法である。
我々は,従来の知識の信頼性を定量化するために,正規化フローモデルに基づく確率的フレームワークを用いる。
論文 参考訳(メタデータ) (2025-02-20T02:35:17Z) - AFed: Algorithmic Fair Federated Learning [13.216737333440596]
フェデレートラーニング(FL)は、サーバにデータを集中させることなく、複数のクライアント間で協調的な機械学習を促進するため、大きな注目を集めている。
従来のデバイアス法では、センシティブな情報への集中的なアクセスを前提としており、FL設定では現実的ではない。
本稿では,FLにおけるグループフェアネスをクライアントのローカルデータにアクセスせずに促進するフレームワークであるAFedを提案する。
論文 参考訳(メタデータ) (2025-01-06T03:05:49Z) - FLASH: Federated Learning Across Simultaneous Heterogeneities [54.80435317208111]
FLASH (Federated Learning Across Simultaneous Heterogeneities) は軽量かつ柔軟なクライアント選択アルゴリズムである。
ヘテロジニティの幅広い情報源の下で、最先端のFLフレームワークよりも優れています。
最先端のベースラインよりも大幅に、一貫性のある改善を実現している。
論文 参考訳(メタデータ) (2024-02-13T20:04:39Z) - Multi-dimensional Fair Federated Learning [25.07463977553212]
フェデレートラーニング(FL)は、分散データからモデルをトレーニングするための、有望な協調的でセキュアなパラダイムとして登場した。
群フェアネスとクライアントフェアネスは、FLにとって重要である2次元のフェアネスである。
グループフェアネスとクライアントフェアネスを同時に達成するために,mFairFLと呼ばれる手法を提案する。
論文 参考訳(メタデータ) (2023-12-09T11:37:30Z) - Demystifying Local and Global Fairness Trade-offs in Federated Learning
Using Partial Information Decomposition [7.918307236588161]
本研究は,フェデレートラーニング(FL)におけるグループフェアネストレードオフに対する情報理論的視点を示す。
FLでは、$textitUnique Disparity$, $textitRedundant Disparity$, $textitMasked Disparity$という、不公平な3つのソースを特定します。
グローバル・フェアネスとローカル・フェアネスのトレードオフに関する根本的な制限を導き、彼らが同意するか、意見が一致しないかを強調します。
論文 参考訳(メタデータ) (2023-07-21T03:41:55Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - FairVFL: A Fair Vertical Federated Learning Framework with Contrastive
Adversarial Learning [102.92349569788028]
本稿では,VFLモデルの公平性を改善するために,FairVFL( Fair vertical federated learning framework)を提案する。
FairVFLの中核となる考え方は、分散化された機能フィールドに基づいたサンプルの統一的で公正な表現を、プライバシ保護の方法で学習することである。
ユーザのプライバシ保護のために,サーバ内の統一表現からプライベート情報を除去する対向学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-07T11:43:32Z) - Proportional Fairness in Federated Learning [27.086313029073683]
PropFairは、フェデレート学習において、比例的に公平な解を見つけるための、新しく簡単に実装できるアルゴリズムである。
PropFairはおよそPFソリューションを見つけることができ、すべてのクライアントの平均的なパフォーマンスと最悪の10%のクライアントのバランスがとれることを実証します。
論文 参考訳(メタデータ) (2022-02-03T16:28:04Z) - Fairness-aware Agnostic Federated Learning [47.26747955026486]
我々は、未知のテスト分布の課題に対処するために、公正に意識しない連邦学習フレームワーク(AgnosticFair)を開発した。
我々はカーネルリライジング関数を用いて、損失関数と公正制約の両方において各トレーニングサンプルにリライジング値を割り当てる。
構築されたモデルは、ローカルデータ配信の公平性を保証するため、ローカルサイトに直接適用することができる。
論文 参考訳(メタデータ) (2020-10-10T17:58:20Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。