論文の概要: Towards Group Fairness with Multiple Sensitive Attributes in Federated Foundation Models
- arxiv url: http://arxiv.org/abs/2506.18732v1
- Date: Mon, 23 Jun 2025 15:09:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:37.044477
- Title: Towards Group Fairness with Multiple Sensitive Attributes in Federated Foundation Models
- Title(参考訳): フェデレーションモデルにおける多感性属性を用いたグループフェアネスに向けて
- Authors: Yuning Yang, Han Yu, Tianrun Gao, Xiaodong Xu, Guangyu Wang,
- Abstract要約: フェデレーション・ファンデーション・モデル(FFM)の時代において、グループフェアネスの達成は、ますます顕著な問題となっている。
本稿では,FFMにおけるグループフェアネスとグループフェアネスの関係の因果解析に向けた最初の試みを行う。
我々は、FFM構造を拡張し、複数の機密属性を同時に交換し、因果発見と推論によってグループフェアネスの背後にある因果効果を定量化する。
- 参考スコア(独自算出の注目度): 14.113154804954858
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The deep integration of foundation models (FM) with federated learning (FL) enhances personalization and scalability for diverse downstream tasks, making it crucial in sensitive domains like healthcare. Achieving group fairness has become an increasingly prominent issue in the era of federated foundation models (FFMs), since biases in sensitive attributes might lead to inequitable treatment for under-represented demographic groups. Existing studies mostly focus on achieving fairness with respect to a single sensitive attribute. This renders them unable to provide clear interpretability of dependencies among multiple sensitive attributes which is required to achieve group fairness. Our paper takes the first attempt towards a causal analysis of the relationship between group fairness across various sensitive attributes in the FFM. We extend the FFM structure to trade off multiple sensitive attributes simultaneously and quantify the causal effect behind the group fairness through causal discovery and inference. Extensive experiments validate its effectiveness, offering insights into interpretability towards building trustworthy and fair FFM systems.
- Abstract(参考訳): ファウンデーションモデル(FM)とフェデレーションラーニング(FL)との深い統合により、さまざまな下流タスクのパーソナライズとスケーラビリティが向上し、医療のような繊細な領域において重要なものとなります。
センシティブな属性のバイアスが、表現不足の集団に対する不平等な治療につながる可能性があるため、フェデレーション・ファンデーション・モデル(FFM)の時代において、グループフェアネスの達成は、ますます顕著な問題となっている。
現存する研究は主に、単一感度属性に対する公平性を達成することに焦点を当てている。
これにより、グループフェアネスを達成するために必要な複数の機密属性間の依存関係の明確な解釈性を提供できない。
本稿は,FFMにおけるグループフェアネスとグループフェアネスの関係を因果分析するための最初の試みである。
我々は、FFM構造を拡張し、複数の機密属性を同時に交換し、因果発見と推論によってグループフェアネスの背後にある因果効果を定量化する。
大規模な実験は、その効果を検証し、信頼できる公正なFFMシステムを構築するための解釈可能性に関する洞察を提供する。
関連論文リスト
- Toward Fair Federated Learning under Demographic Disparities and Data Imbalance [8.444310568786408]
フェデレートラーニング(Federated Learning, FL)は、機関間のプライバシー保護コラボレーションを可能にする。
フェアネスを意識した正規化とグループ条件オーバサンプリングを組み合わせたフレームワークに依存しないFedIDAを提案する。
FedIDAは、競争力のある予測性能を維持しながら、常に公正性を向上することを示す。
論文 参考訳(メタデータ) (2025-05-14T11:22:54Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective [50.093280002375984]
多変量時系列予測モデル(MTS)では変数間の性能不公平性が広く存在する。
フェアネスを意識したMTS予測のための新しいフレームワークであるFairForを提案する。
論文 参考訳(メタデータ) (2023-01-27T04:54:12Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - Unified Group Fairness on Federated Learning [22.143427873780404]
フェデレートラーニング(FL)は、グローバルモデルが分散クライアントのプライベートデータに基づいてトレーニングされる、重要な機械学習パラダイムとして登場した。
近年の研究では、顧客間の公平性に焦点が当てられているが、センシティブな属性(例えば、性別や人種)によって形成される異なるグループに対する公正性は無視されている。
本稿では,G-DRFA (Group Distributionally Robust Federated Averaging) と呼ばれる新しいFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-09T08:21:38Z) - FairFed: Enabling Group Fairness in Federated Learning [22.913999279079878]
フェデレーテッド・ラーニングは、複数のパーティで機械学習モデルを学習するための有望なソリューションと見なされている。
フェアネスを意識したアグリゲーション手法によりグループフェアネスを高める新しいアルゴリズムであるFairFedを提案する。
提案手法は,高度の不均一な属性分布の下で,最先端の公正な学習フレームワークよりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-02T17:55:20Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - FACT: A Diagnostic for Group Fairness Trade-offs [23.358566041117083]
グループフェアネス(グループフェアネス、英: Group Fairness)とは、個人の異なる集団が保護された属性によってどのように異なる扱いを受けるかを測定するフェアネスの概念のクラスである。
グループフェアネスにおけるこれらのトレードオフを体系的に評価できる一般的な診断法を提案する。
論文 参考訳(メタデータ) (2020-04-07T14:15:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。