論文の概要: FeDa4Fair: Client-Level Federated Datasets for Fairness Evaluation
- arxiv url: http://arxiv.org/abs/2506.21095v3
- Date: Tue, 30 Sep 2025 17:14:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.03927
- Title: FeDa4Fair: Client-Level Federated Datasets for Fairness Evaluation
- Title(参考訳): FeDa4Fair: 公正性評価のためのクライアントレベルのフェデレーションデータセット
- Authors: Xenia Heilmann, Luca Corbucci, Mattia Cerrato, Anna Monreale,
- Abstract要約: Federated Learning (FL)は、クライアントのプライベートデータを共有せずに、複数のクライアント間で協調的なモデルトレーニングを可能にする。
クライアントにまたがる多様で、しばしば矛盾するバイアスは、公正性をモデル化する上で大きな課題をもたらします。
現在のフェアネス・エンハンシング FL ソリューションは、1つの、通常二進的、敏感な属性に対するバイアスを緩和する一方、現実世界の環境に存在する不均一なフェアネスのニーズを無視しているため、しばしば不足する。
- 参考スコア(独自算出の注目度): 5.195640929313995
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Federated Learning (FL) enables collaborative model training across multiple clients without sharing clients' private data. However, the diverse and often conflicting biases present across clients pose significant challenges to model fairness. Current fairness-enhancing FL solutions often fall short, as they typically mitigate biases for a single, usually binary, sensitive attribute, while ignoring the heterogeneous fairness needs that exist in real-world settings. Moreover, these solutions often evaluate unfairness reduction only on the server side, hiding persistent unfairness at the individual client level. To support more robust and reproducible fairness research in FL, we introduce a comprehensive benchmarking framework for fairness-aware FL at both the global and client levels. Our contributions are three-fold: (1) We introduce \fairdataset, a library to create tabular datasets tailored to evaluating fair FL methods under heterogeneous client bias; (2) we release four bias-heterogeneous datasets and corresponding benchmarks to compare fairness mitigation methods in a controlled environment; (3) we provide ready-to-use functions for evaluating fairness outcomes for these datasets.
- Abstract(参考訳): Federated Learning (FL)は、クライアントのプライベートデータを共有せずに、複数のクライアント間で協調的なモデルトレーニングを可能にする。
しかしながら、クライアントにまたがる多様で、しばしば矛盾するバイアスは、公正性をモデル化する上で大きな課題を引き起こします。
現在のフェアネス・エンハンシング FL ソリューションは、1つの、通常二進的、敏感な属性に対するバイアスを緩和する一方、現実世界の環境に存在する不均一なフェアネスのニーズを無視しているため、しばしば不足する。
さらに、これらのソリューションはサーバ側でのみ不公平さの低減を評価し、個々のクライアントレベルで永続的不公平さを隠蔽することが多い。
FLにおけるより堅牢で再現可能なフェアネス研究を支援するため、グローバルレベルとクライアントレベルの両方において、フェアネスを意識したFLのための包括的なベンチマークフレームワークを導入する。
1)不均一なクライアントバイアスの下で公正なFLメソッドを評価するのに適した表付きデータセットを作成するためのライブラリである \fairdataset、(2)制御された環境で公平な緩和方法を比較するための4つのバイアス不均一なデータセットとそれに対応するベンチマーク、(3)これらのデータセットの公正な結果を評価するための準備が整った機能を提供する。
関連論文リスト
- Mitigating Group-Level Fairness Disparities in Federated Visual Language Models [115.16940773660104]
本稿では、FLと公正なプロンプトチューニング技術を組み合わせた新しいフレームワークであるFVL-FPを紹介する。
モデル性能を維持しながら、人口統計バイアスを軽減することに注力する。
本手法は,標準FL法に比べて平均45%の人口格差を減少させる。
論文 参考訳(メタデータ) (2025-05-03T16:09:52Z) - pFedFair: Towards Optimal Group Fairness-Accuracy Trade-off in Heterogeneous Federated Learning [17.879602968559198]
フェデレートされた学習アルゴリズムは、クライアントの集合データに基づいてモデルをトレーニングすることで、クライアントの精度を最大化することを目的としている。
群フェアネス制約は、FL最適化問題の目的関数に組み込むことができる。
このような手法により、不均一なクライアント分布を持つFL設定において、最適な分類精度が得られることを示す。
論文 参考訳(メタデータ) (2025-03-19T06:15:31Z) - Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - Friends in Unexpected Places: Enhancing Local Fairness in Federated Learning through Clustering [15.367801388932145]
フェデレートラーニング(FL)は、分散データセット間の機械学習モデルの協調トレーニングにおいて重要なパラダイムである。
本稿では、パーソナライズされたFLと局所的に公平なFLの空間にまたがる異種設定のための新しいFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-07-27T19:55:18Z) - Achieving Fairness Across Local and Global Models in Federated Learning [9.902848777262918]
本研究は,フェデレート学習環境における局所的およびグローバル的公正性を高めるために設計された,新しいアプローチであるtextttEquiFLを紹介する。
textttEquiFLは、フェアネスという用語を局所最適化の目的に取り入れ、局所的なパフォーマンスとフェアネスを効果的にバランスさせる。
textttEquiFLは、各クライアントにおいて、精度と公平性のバランスが良くなるだけでなく、グローバル公正性も達成できることを示す。
論文 参考訳(メタデータ) (2024-06-24T19:42:16Z) - FedFair^3: Unlocking Threefold Fairness in Federated Learning [6.481470306093991]
フェデレートラーニング(FL)は、クライアントの生データを公開せずに機械学習の新たなパラダイムである。
我々は,フェデレート学習における3倍の公平性を解き放つ,公正なクライアント選択手法を提案する。
論文 参考訳(メタデータ) (2024-01-29T17:56:15Z) - GLOCALFAIR: Jointly Improving Global and Local Group Fairness in Federated Learning [8.033939709734451]
フェデレートラーニング(FL)は、データプライバシを犠牲にすることなく、クライアント間で共有モデルを共同で学習するための、将来的なソリューションとして登場した。
FLは、データの不均一性やパーティーの選択など、固有のFL特性のために、特定の人口集団に対してバイアスを受ける傾向にある。
クライアントのプライベートデータセットに関する詳細な統計を必要とせずに,グローバルおよびローカルグループフェアネスを改善するクライアントサーバのコードサインであるGFAIRを提案する。
論文 参考訳(メタデータ) (2024-01-07T18:10:14Z) - FedSampling: A Better Sampling Strategy for Federated Learning [81.85411484302952]
フェデレートラーニング(FL)は、プライバシを保存する方法で分散化されたデータからモデルを学習するための重要なテクニックである。
既存のFLメソッドは通常、各ラウンドでローカルモデル学習のために一様にクライアントをサンプリングする。
フェデレート学習のための新しいデータ一様サンプリング戦略(FedSampling)を提案する。
論文 参考訳(メタデータ) (2023-06-25T13:38:51Z) - FL Games: A Federated Learning Framework for Distribution Shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するフェデレーション学習のためのゲーム理論フレームワークFL GAMESを提案する。
論文 参考訳(メタデータ) (2022-10-31T22:59:03Z) - Unifying Distillation with Personalization in Federated Learning [1.8262547855491458]
Federated Learning(FL)は、クライアントがデータを共有せずに中央アグリゲータを通じて共同作業モデルを学習する分散プライバシ保護学習技術である。
この設定では、すべてのクライアントが単一の共通予測器(FedAvg)を学習する。
本稿では,2段階のパーソナライズされた学習アルゴリズムPersFLを用いてこの問題に対処する。
第1段階では、PersFLはFLトレーニングフェーズにおいて各クライアントの最適な教師モデルを見つけ、第2段階では、PersFLは有用な知識を抽出する。
論文 参考訳(メタデータ) (2021-05-31T17:54:29Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。