論文の概要: FeDa4Fair: Client-Level Federated Datasets for Fairness Evaluation
- arxiv url: http://arxiv.org/abs/2506.21095v1
- Date: Thu, 26 Jun 2025 08:43:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:10.026121
- Title: FeDa4Fair: Client-Level Federated Datasets for Fairness Evaluation
- Title(参考訳): FeDa4Fair: 公正性評価のためのクライアントレベルのフェデレーションデータセット
- Authors: Xenia Heilmann, Luca Corbucci, Mattia Cerrato, Anna Monreale,
- Abstract要約: Federated Learning (FL)は、クライアントのプライベートデータを共有せずに、複数のクライアント間で協調的なモデルトレーニングを可能にする。
クライアント間の不均一なデータ分散は、一部のクライアントにとって他のクライアントよりも公平なモデルにつながる可能性がある。
FeDa4Fairは、不均一なクライアントバイアスの下で公正なFL手法を評価するのに適したデータセットを生成するライブラリである。
- 参考スコア(独自算出の注目度): 3.156133122658662
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Federated Learning (FL) enables collaborative model training across multiple clients without sharing clients' private data. However, fairness remains a key concern, as biases in local clients' datasets can impact the entire federated system. Heterogeneous data distributions across clients may lead to models that are fairer for some clients than others. Although several fairness-enhancing solutions are present in the literature, most focus on mitigating bias for a single sensitive attribute, typically binary, overlooking the diverse and sometimes conflicting fairness needs of different clients. This limited perspective can limit the effectiveness of fairness interventions for the different clients. To support more robust and reproducible fairness research in FL, we aim to enable a consistent benchmarking of fairness-aware FL methods at both the global and client levels. In this paper, we contribute in three ways: (1) We introduce FeDa4Fair, a library to generate tabular datasets tailored to evaluating fair FL methods under heterogeneous client bias; (2) we release four bias-heterogeneous datasets and corresponding benchmarks to compare fairness mitigation methods in a controlled environment; (3) we provide ready-to-use functions for evaluating fairness outcomes for these datasets.
- Abstract(参考訳): Federated Learning (FL)は、クライアントのプライベートデータを共有せずに、複数のクライアント間で協調的なモデルトレーニングを可能にする。
しかしながら、ローカルクライアントのデータセットのバイアスがフェデレートされたシステム全体に影響を及ぼす可能性があるため、公平性は依然として重要な関心事である。
クライアント間の不均一なデータ分散は、一部のクライアントにとって他のクライアントよりも公平なモデルにつながる可能性がある。
文献にはフェアネス向上ソリューションがいくつか存在するが、たいていは、異なるクライアントの多様性と時には矛盾するフェアネスのニーズを見越して、単一のセンシティブな属性(通常はバイナリ)に対するバイアスを軽減することに焦点を当てている。
この制限された視点は、異なるクライアントに対する公平な介入の有効性を制限することができます。
FLにおけるより堅牢で再現可能なフェアネス研究を支援するため、グローバルレベルとクライアントレベルの両方において、フェアネスを意識したFLメソッドの一貫したベンチマークを可能にすることを目的とする。
本稿では,(1)不均一なクライアントバイアス下での公正なFL手法の評価に適した表付きデータセットを生成するためのライブラリFeDa4Fair,(2)制御環境における公平さ低減手法を比較するためのバイアス不均一な4つのデータセットとそれに対応するベンチマーク,(3)これらのデータセットの公正さ評価のための準備可能な機能を提供する。
関連論文リスト
- Mitigating Group-Level Fairness Disparities in Federated Visual Language Models [115.16940773660104]
本稿では、FLと公正なプロンプトチューニング技術を組み合わせた新しいフレームワークであるFVL-FPを紹介する。
モデル性能を維持しながら、人口統計バイアスを軽減することに注力する。
本手法は,標準FL法に比べて平均45%の人口格差を減少させる。
論文 参考訳(メタデータ) (2025-05-03T16:09:52Z) - Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - Friends in Unexpected Places: Enhancing Local Fairness in Federated Learning through Clustering [15.367801388932145]
フェデレートラーニング(FL)は、分散データセット間の機械学習モデルの協調トレーニングにおいて重要なパラダイムである。
本稿では、パーソナライズされたFLと局所的に公平なFLの空間にまたがる異種設定のための新しいFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-07-27T19:55:18Z) - Achieving Fairness Across Local and Global Models in Federated Learning [9.902848777262918]
本研究は,フェデレート学習環境における局所的およびグローバル的公正性を高めるために設計された,新しいアプローチであるtextttEquiFLを紹介する。
textttEquiFLは、フェアネスという用語を局所最適化の目的に取り入れ、局所的なパフォーマンスとフェアネスを効果的にバランスさせる。
textttEquiFLは、各クライアントにおいて、精度と公平性のバランスが良くなるだけでなく、グローバル公正性も達成できることを示す。
論文 参考訳(メタデータ) (2024-06-24T19:42:16Z) - FedFair^3: Unlocking Threefold Fairness in Federated Learning [6.481470306093991]
フェデレートラーニング(FL)は、クライアントの生データを公開せずに機械学習の新たなパラダイムである。
我々は,フェデレート学習における3倍の公平性を解き放つ,公正なクライアント選択手法を提案する。
論文 参考訳(メタデータ) (2024-01-29T17:56:15Z) - GLOCALFAIR: Jointly Improving Global and Local Group Fairness in Federated Learning [8.033939709734451]
フェデレートラーニング(FL)は、データプライバシを犠牲にすることなく、クライアント間で共有モデルを共同で学習するための、将来的なソリューションとして登場した。
FLは、データの不均一性やパーティーの選択など、固有のFL特性のために、特定の人口集団に対してバイアスを受ける傾向にある。
クライアントのプライベートデータセットに関する詳細な統計を必要とせずに,グローバルおよびローカルグループフェアネスを改善するクライアントサーバのコードサインであるGFAIRを提案する。
論文 参考訳(メタデータ) (2024-01-07T18:10:14Z) - FedSampling: A Better Sampling Strategy for Federated Learning [81.85411484302952]
フェデレートラーニング(FL)は、プライバシを保存する方法で分散化されたデータからモデルを学習するための重要なテクニックである。
既存のFLメソッドは通常、各ラウンドでローカルモデル学習のために一様にクライアントをサンプリングする。
フェデレート学習のための新しいデータ一様サンプリング戦略(FedSampling)を提案する。
論文 参考訳(メタデータ) (2023-06-25T13:38:51Z) - FL Games: A Federated Learning Framework for Distribution Shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するフェデレーション学習のためのゲーム理論フレームワークFL GAMESを提案する。
論文 参考訳(メタデータ) (2022-10-31T22:59:03Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。