論文の概要: Toward Fair Federated Learning under Demographic Disparities and Data Imbalance
- arxiv url: http://arxiv.org/abs/2505.09295v1
- Date: Wed, 14 May 2025 11:22:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-15 21:44:09.434013
- Title: Toward Fair Federated Learning under Demographic Disparities and Data Imbalance
- Title(参考訳): 情報格差とデータ不均衡下における公正なフェデレーション学習に向けて
- Authors: Qiming Wu, Siqi Li, Doudou Zhou, Nan Liu,
- Abstract要約: フェデレートラーニング(Federated Learning, FL)は、機関間のプライバシー保護コラボレーションを可能にする。
フェアネスを意識した正規化とグループ条件オーバサンプリングを組み合わせたフレームワークに依存しないFedIDAを提案する。
FedIDAは、競争力のある予測性能を維持しながら、常に公正性を向上することを示す。
- 参考スコア(独自算出の注目度): 8.444310568786408
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ensuring fairness is critical when applying artificial intelligence to high-stakes domains such as healthcare, where predictive models trained on imbalanced and demographically skewed data risk exacerbating existing disparities. Federated learning (FL) enables privacy-preserving collaboration across institutions, but remains vulnerable to both algorithmic bias and subgroup imbalance - particularly when multiple sensitive attributes intersect. We propose FedIDA (Fed erated Learning for Imbalance and D isparity A wareness), a framework-agnostic method that combines fairness-aware regularization with group-conditional oversampling. FedIDA supports multiple sensitive attributes and heterogeneous data distributions without altering the convergence behavior of the underlying FL algorithm. We provide theoretical analysis establishing fairness improvement bounds using Lipschitz continuity and concentration inequalities, and show that FedIDA reduces the variance of fairness metrics across test sets. Empirical results on both benchmark and real-world clinical datasets confirm that FedIDA consistently improves fairness while maintaining competitive predictive performance, demonstrating its effectiveness for equitable and privacy-preserving modeling in healthcare. The source code is available on GitHub.
- Abstract(参考訳): 医療のような高度な領域に人工知能を適用し、不均衡で人口統計学的に歪んだデータリスクに基づいてトレーニングされた予測モデルが、既存の格差を悪化させる場合、公正性を保証することが重要である。
フェデレートラーニング(FL)は、機関間でのプライバシ保護コラボレーションを可能にするが、アルゴリズムバイアスとサブグループ不均衡(特に複数の機密属性が交差する場合)の両方に弱いままである。
本稿では,FedIDA(Fed erated Learning for Im Balance and D isparity A wareness)を提案する。
FedIDAは、基盤となるFLアルゴリズムの収束挙動を変化させることなく、複数の機密属性と異種データ分布をサポートする。
我々は,リプシッツ連続性と濃度不等式を用いたフェアネス改善境界を確立する理論的解析を行い,FedIDAがテストセット間のフェアネス指標のばらつきを低減することを示す。
ベンチマークと実世界の臨床データセットの実証結果から、FedIDAは競争力のある予測性能を維持しながら公正性を継続的に改善し、医療における公平かつプライバシー保護的なモデリングの有効性を実証している。
ソースコードはGitHubで入手できる。
関連論文リスト
- Logit Calibration and Feature Contrast for Robust Federated Learning on Non-IID Data [45.11652096723593]
Federated Learning(FL)は、エッジネットワークのデバイス上で協調的なモデルトレーニングを行うための、プライバシ保護のための分散フレームワークである。
本稿では,ローカルロジットアンダーラインキャリブレーションとグローバル機能アンダーラインコントラストを,ロジットと特徴の両方の観点から,バニラフェデレーション付き対人訓練プロセスに組み込んだFatCCを提案する。
論文 参考訳(メタデータ) (2024-04-10T06:35:25Z) - Fairness-aware Federated Minimax Optimization with Convergence Guarantee [10.727328530242461]
フェデレートラーニング(FL)はそのプライバシー保護機能のためにかなりの注目を集めている。
ユーザデータ管理の自由の欠如は、モデルが人種や性別などのセンシティブな要因に偏っている、グループフェアネスの問題につながる可能性がある。
本稿では,FLにおけるグループフェアネス問題に明示的に対処するために,拡張ラグランジアン法(FFALM)を用いたフェアフェデレーション平均化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-10T08:45:58Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Towards Reliable Medical Image Segmentation by utilizing Evidential Calibrated Uncertainty [52.03490691733464]
本稿では,医療画像セグメンテーションネットワークにシームレスに統合可能な,実装が容易な基礎モデルであるDEviSを紹介する。
主観的論理理論を利用して、医用画像分割の問題に対する確率と不確実性を明示的にモデル化する。
DeviSには不確実性を考慮したフィルタリングモジュールが組み込まれている。
論文 参考訳(メタデータ) (2023-01-01T05:02:46Z) - FedSkip: Combatting Statistical Heterogeneity with Federated Skip
Aggregation [95.85026305874824]
我々はFedSkipと呼ばれるデータ駆動型アプローチを導入し、フェデレーション平均化を定期的にスキップし、ローカルモデルをクロスデバイスに分散することで、クライアントの最適化を改善する。
我々は、FedSkipがはるかに高い精度、より良いアグリゲーション効率、競合する通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2022-12-14T13:57:01Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - FOCUS: Fairness via Agent-Awareness for Federated Learning on
Heterogeneous Data [31.611582207768464]
フェデレートラーニング(FL)は、エージェントがローカルデータを共有せずにグローバルモデルを共同でトレーニングすることを可能にする。
本稿では,異種エージェントの貢献を考慮に入れた,FLフェアネスの正式な定義,エージェント認識によるフェアネス(fairness)を提案する。
また,エージェントクラスタリング(FOCUS)に基づく公正なFLトレーニングアルゴリズムを提案し,FAAが測定したFLの公平性を実現する。
論文 参考訳(メタデータ) (2022-07-21T02:21:03Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。