論文の概要: Toward Fair Federated Learning under Demographic Disparities and Data Imbalance
- arxiv url: http://arxiv.org/abs/2505.09295v1
- Date: Wed, 14 May 2025 11:22:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-15 21:44:09.434013
- Title: Toward Fair Federated Learning under Demographic Disparities and Data Imbalance
- Title(参考訳): 情報格差とデータ不均衡下における公正なフェデレーション学習に向けて
- Authors: Qiming Wu, Siqi Li, Doudou Zhou, Nan Liu,
- Abstract要約: フェデレートラーニング(Federated Learning, FL)は、機関間のプライバシー保護コラボレーションを可能にする。
フェアネスを意識した正規化とグループ条件オーバサンプリングを組み合わせたフレームワークに依存しないFedIDAを提案する。
FedIDAは、競争力のある予測性能を維持しながら、常に公正性を向上することを示す。
- 参考スコア(独自算出の注目度): 8.444310568786408
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ensuring fairness is critical when applying artificial intelligence to high-stakes domains such as healthcare, where predictive models trained on imbalanced and demographically skewed data risk exacerbating existing disparities. Federated learning (FL) enables privacy-preserving collaboration across institutions, but remains vulnerable to both algorithmic bias and subgroup imbalance - particularly when multiple sensitive attributes intersect. We propose FedIDA (Fed erated Learning for Imbalance and D isparity A wareness), a framework-agnostic method that combines fairness-aware regularization with group-conditional oversampling. FedIDA supports multiple sensitive attributes and heterogeneous data distributions without altering the convergence behavior of the underlying FL algorithm. We provide theoretical analysis establishing fairness improvement bounds using Lipschitz continuity and concentration inequalities, and show that FedIDA reduces the variance of fairness metrics across test sets. Empirical results on both benchmark and real-world clinical datasets confirm that FedIDA consistently improves fairness while maintaining competitive predictive performance, demonstrating its effectiveness for equitable and privacy-preserving modeling in healthcare. The source code is available on GitHub.
- Abstract(参考訳): 医療のような高度な領域に人工知能を適用し、不均衡で人口統計学的に歪んだデータリスクに基づいてトレーニングされた予測モデルが、既存の格差を悪化させる場合、公正性を保証することが重要である。
フェデレートラーニング(FL)は、機関間でのプライバシ保護コラボレーションを可能にするが、アルゴリズムバイアスとサブグループ不均衡(特に複数の機密属性が交差する場合)の両方に弱いままである。
本稿では,FedIDA(Fed erated Learning for Im Balance and D isparity A wareness)を提案する。
FedIDAは、基盤となるFLアルゴリズムの収束挙動を変化させることなく、複数の機密属性と異種データ分布をサポートする。
我々は,リプシッツ連続性と濃度不等式を用いたフェアネス改善境界を確立する理論的解析を行い,FedIDAがテストセット間のフェアネス指標のばらつきを低減することを示す。
ベンチマークと実世界の臨床データセットの実証結果から、FedIDAは競争力のある予測性能を維持しながら公正性を継続的に改善し、医療における公平かつプライバシー保護的なモデリングの有効性を実証している。
ソースコードはGitHubで入手できる。
関連論文リスト
- A Unifying Human-Centered AI Fairness Framework [2.9385229328767988]
8つの異なる公平度指標をカバーする、統一された人間中心の公正度フレームワークを導入する。
このフレームワークは、単一の公正の概念を特権化するのではなく、利害関係者が複数の公正目標に対して重みを割り当てることを可能にする。
重みを調整することで、異なる公平度指標間の微妙なトレードオフが明らかになる。
論文 参考訳(メタデータ) (2025-12-07T17:52:38Z) - Accurate Target Privacy Preserving Federated Learning Balancing Fairness and Utility [28.676852732262407]
フェデレートラーニング(FL)は、データ共有なしで協調的なモデルトレーニングを可能にする。
我々は、この多目的最適化をゼロサムゲームに変換する微分プライベートフェアFLアルゴリズムを導入する。
我々の理論的分析は、驚くべき逆関係、すなわちより厳格なプライバシー保護が、人口統計バイアスを検出し修正するシステムの能力を制限していることを示している。
論文 参考訳(メタデータ) (2025-10-30T07:14:55Z) - Reliable and Reproducible Demographic Inference for Fairness in Face Analysis [63.46525489354455]
本稿では、従来のエンドツーエンドトレーニングをモジュラートランスファー学習アプローチで置き換える、完全に再現可能なDAIパイプラインを提案する。
このパイプラインは、正確性、公正性、そしてアイデンティティ内整合性によって定義される、新たに導入された堅牢性の概念の3つの次元にわたって監査する。
以上の結果から,提案手法は特に民族性において,強い基準線を上回り,その特性はより困難であることが示唆された。
論文 参考訳(メタデータ) (2025-10-23T12:22:02Z) - Fairness-Constrained Optimization Attack in Federated Learning [26.380464066437668]
フェデレーション・ラーニング(Federated Learning, FL)は、人口統計学における参加者間のコラボレーションを促進する、プライバシ保護機械学習技術である。
本稿では,クライアントが不正にバイアス付きモデルを送信する意図的公正攻撃を提案する。
我々は,現在最先端のビザンチン・ロバストとフェアネス・アウェア・アグリゲーション・スキームに対する,異なるデータセットに対する攻撃を評価した。
論文 参考訳(メタデータ) (2025-10-14T04:49:53Z) - FedFiTS: Fitness-Selected, Slotted Client Scheduling for Trustworthy Federated Learning in Healthcare AI [33.17279604575767]
フェデレートラーニング(FL)は、プライバシ保護モデルトレーニングの強力なパラダイムとして登場したが、医療などのセンシティブなドメインへのデプロイは、永続的な課題に直面している。
本稿では、フィットネスベースのクライアント選挙とアダプティブアグリゲーションを組み合わせることで、FedFaStラインを前進させる信頼度の高い選択的FLTSであるFedFiTSを紹介する。
論文 参考訳(メタデータ) (2025-09-23T15:06:04Z) - A Comparative Benchmark of Federated Learning Strategies for Mortality Prediction on Heterogeneous and Imbalanced Clinical Data [0.0]
フェデレートラーニング(FL)は、プライバシ保護ソリューションを提供するが、その非独立性とIdentically Distributed(非IID)と不均衡な条件下でのパフォーマンスには調査が必要である。
本研究では,FedAvg,FedProx,FedAdagrad,FedAdam,FedClusterの5つのフェデレーション学習戦略の比較ベンチマークを行った。
この結果から,FedProxのような正規化に基づくFLアルゴリズムは,不均一かつ不均衡な臨床予測タスクに対して,より堅牢で効果的なソリューションを提供することがわかった。
論文 参考訳(メタデータ) (2025-09-03T11:32:57Z) - FedFACT: A Provable Framework for Controllable Group-Fairness Calibration in Federated Learning [13.575259448363557]
我々はFedFACTという制御可能なグループフェアネス校正フレームワークを提案する。
FedFACTは、大域的および局所的公正性の制約の下でベイズ最適分類器を識別する。
複数のデータセットの実験では、FedFACTは精度とグローバルローカルフェアネスのバランスをとる上で、ベースラインを一貫して上回っている。
論文 参考訳(メタデータ) (2025-06-04T09:39:57Z) - RESFL: An Uncertainty-Aware Framework for Responsible Federated Learning by Balancing Privacy, Fairness and Utility in Autonomous Vehicles [6.3338980105224145]
既存のFLフレームワークは、プライバシ、公平性、堅牢性のバランスをとるのに苦労しているため、人口統計グループ間でのパフォーマンス格差が生じる。
この研究は、AVのためのFLベースのオブジェクト検出におけるプライバシと公正性のトレードオフについて検討し、両者を最適化する統合ソリューションであるRESFLを紹介した。
RESFLは、敵のプライバシーのゆがみと不確実性誘導された公正なアグリゲーションを取り入れている。
FACETデータセットとCARLAシミュレータ上でRESFLを評価し、様々な条件下で精度、公正性、プライバシーのレジリエンス、堅牢性を評価する。
論文 参考訳(メタデータ) (2025-03-20T15:46:03Z) - FairFML: Fair Federated Machine Learning with a Case Study on Reducing Gender Disparities in Cardiac Arrest Outcome Prediction [10.016644624468762]
本稿では,Fair Federated Machine Learning (FairFML)について紹介する。
概念実証として,心停止予測における性差の低減を目的とした実世界の臨床ケーススタディを用いて,FairFMLを検証した。
その結果,FairFMLは局所モデルと集中モデルの両方に匹敵する性能を維持しながら,集中モデルと比較して最大65%のモデルフェアネス向上を実現していることがわかった。
論文 参考訳(メタデータ) (2024-10-07T13:02:04Z) - Logit Calibration and Feature Contrast for Robust Federated Learning on Non-IID Data [45.11652096723593]
Federated Learning(FL)は、エッジネットワークのデバイス上で協調的なモデルトレーニングを行うための、プライバシ保護のための分散フレームワークである。
本稿では,ローカルロジットアンダーラインキャリブレーションとグローバル機能アンダーラインコントラストを,ロジットと特徴の両方の観点から,バニラフェデレーション付き対人訓練プロセスに組み込んだFatCCを提案する。
論文 参考訳(メタデータ) (2024-04-10T06:35:25Z) - Fairness-aware Federated Minimax Optimization with Convergence Guarantee [10.727328530242461]
フェデレートラーニング(FL)はそのプライバシー保護機能のためにかなりの注目を集めている。
ユーザデータ管理の自由の欠如は、モデルが人種や性別などのセンシティブな要因に偏っている、グループフェアネスの問題につながる可能性がある。
本稿では,FLにおけるグループフェアネス問題に明示的に対処するために,拡張ラグランジアン法(FFALM)を用いたフェアフェデレーション平均化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-10T08:45:58Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Towards Reliable Medical Image Segmentation by utilizing Evidential Calibrated Uncertainty [52.03490691733464]
本稿では,医療画像セグメンテーションネットワークにシームレスに統合可能な,実装が容易な基礎モデルであるDEviSを紹介する。
主観的論理理論を利用して、医用画像分割の問題に対する確率と不確実性を明示的にモデル化する。
DeviSには不確実性を考慮したフィルタリングモジュールが組み込まれている。
論文 参考訳(メタデータ) (2023-01-01T05:02:46Z) - FedSkip: Combatting Statistical Heterogeneity with Federated Skip
Aggregation [95.85026305874824]
我々はFedSkipと呼ばれるデータ駆動型アプローチを導入し、フェデレーション平均化を定期的にスキップし、ローカルモデルをクロスデバイスに分散することで、クライアントの最適化を改善する。
我々は、FedSkipがはるかに高い精度、より良いアグリゲーション効率、競合する通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2022-12-14T13:57:01Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - FOCUS: Fairness via Agent-Awareness for Federated Learning on
Heterogeneous Data [31.611582207768464]
フェデレートラーニング(FL)は、エージェントがローカルデータを共有せずにグローバルモデルを共同でトレーニングすることを可能にする。
本稿では,異種エージェントの貢献を考慮に入れた,FLフェアネスの正式な定義,エージェント認識によるフェアネス(fairness)を提案する。
また,エージェントクラスタリング(FOCUS)に基づく公正なFLトレーニングアルゴリズムを提案し,FAAが測定したFLの公平性を実現する。
論文 参考訳(メタデータ) (2022-07-21T02:21:03Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。