論文の概要: CurvFed: Curvature-Aligned Federated Learning for Fairness without Demographics
- arxiv url: http://arxiv.org/abs/2404.19725v6
- Date: Tue, 04 Nov 2025 20:07:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 18:19:32.030278
- Title: CurvFed: Curvature-Aligned Federated Learning for Fairness without Demographics
- Title(参考訳): CurvFed: グラフのないフェアネスのための曲線指向のフェデレーションラーニング
- Authors: Harshit Sharma, Shaily Roy, Asif Salekin,
- Abstract要約: 本稿では,CurvFed: Curvature Aligned Federated Learning for Fairness without Demographicsを紹介する。
CurvFedは、統計情報やセンシティブな属性情報を必要とせずにFLの公平性を促進する。
これは、未知または複数のバイアス要素を持つ単一または複数ユーザーエッジデバイスを含む実世界のFLシナリオに特に適している。
- 参考スコア(独自算出の注目度): 2.7310171802144136
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern human sensing applications often rely on data distributed across users and devices, where privacy concerns prevent centralized training. Federated Learning (FL) addresses this challenge by enabling collaborative model training without exposing raw data or attributes. However, achieving fairness in such settings remains difficult, as most human sensing datasets lack demographic labels, and FL's privacy guarantees limit the use of sensitive attributes. This paper introduces CurvFed: Curvature Aligned Federated Learning for Fairness without Demographics, a theoretically grounded framework that promotes fairness in FL without requiring any demographic or sensitive attribute information, a concept termed Fairness without Demographics (FWD), by optimizing the underlying loss landscape curvature. Building on the theory that equivalent loss landscape curvature corresponds to consistent model efficacy across sensitive attribute groups, CurvFed regularizes the top eigenvalue of the Fisher Information Matrix (FIM) as an efficient proxy for loss landscape curvature, both within and across clients. This alignment promotes uniform model behavior across diverse bias inducing factors, offering an attribute agnostic route to algorithmic fairness. CurvFed is especially suitable for real world human sensing FL scenarios involving single or multi user edge devices with unknown or multiple bias factors. We validated CurvFed through theoretical and empirical justifications, as well as comprehensive evaluations using three real world datasets and a deployment on a heterogeneous testbed of resource constrained devices. Additionally, we conduct sensitivity analyses on local training data volume, client sampling, communication overhead, resource costs, and runtime performance to demonstrate its feasibility for practical FL edge device deployment.
- Abstract(参考訳): 現代のヒューマンセンシングアプリケーションは、プライバシに関する懸念が集中的なトレーニングを妨げているユーザやデバイスに分散したデータに依存していることが多い。
Federated Learning (FL)は、生のデータや属性を公開せずに協調的なモデルトレーニングを可能にすることで、この問題に対処する。
しかしながら、このような設定で公平性を達成することは、ほとんどの人間のセンシングデータセットには人口統計ラベルがなく、FLのプライバシー保証は機密属性の使用を制限するため、依然として困難である。
本稿では,FWD(FurvFed: Curvature Aligned Federated Learning for Fairness without Demographics)という概念を,基盤となる損失景観の曲率を最適化して紹介する。
等価な損失ランドスケープ曲率は、機密属性群間での一貫性のあるモデルの有効性に対応するという理論に基づいて、CurvFedはFisher Information Matrix(FIM)のトップ固有値をクライアント内およびクライアント間の損失ランドスケープ曲率の効率的なプロキシとして正規化している。
このアライメントは、様々なバイアス誘導因子をまたいだ均一なモデル行動を促進し、アルゴリズムの公正性に対する属性に依存しない経路を提供する。
CurvFedは、未知または複数のバイアス要素を持つ単一または複数ユーザーエッジデバイスを含む実世界のFLシナリオに特に適している。
我々は,CurvFedを理論的および実証的な正当化を通じて検証し,実世界の3つのデータセットを用いた包括的評価と,リソース制約されたデバイスの不均一なテストベッドへの展開を行った。
さらに,ローカルトレーニングデータ量,クライアントサンプリング,通信オーバヘッド,リソースコスト,実行時性能の感度解析を行い,FLエッジデバイスの実用化の可能性を示す。
関連論文リスト
- FlexFed: Mitigating Catastrophic Forgetting in Heterogeneous Federated Learning in Pervasive Computing Environments [4.358456799125694]
広汎なコンピューティング環境(例えばヒューマンアクティビティ認識、HAR)は、リソース制約されたエンドデバイス、ストリーミングセンサーデータ、断続的なクライアント参加によって特徴づけられる。
我々は,効率的なメモリ使用のためにデータ保持を優先し,オフライントレーニング頻度を動的に調整する新しいFLアプローチFlexFedを提案する。
また、ストリーミングデータ、動的分散、不均衡、可用性の変動をシミュレートする現実的なHARベースの評価フレームワークを開発した。
論文 参考訳(メタデータ) (2025-05-19T14:23:37Z) - Benchmarking Mutual Information-based Loss Functions in Federated Learning [2.79786165508341]
フェデレートラーニング(FL)は、プライバシー規制の増大により、かなりの関心を集めている。
本稿では、これらの問題に対処するための相互情報に基づく損失関数の使用について検討する。
論文 参考訳(メタデータ) (2025-04-16T08:58:44Z) - FedTilt: Towards Multi-Level Fairness-Preserving and Robust Federated Learning [12.713572267830658]
textttFedTiltは、複数レベルの公正性を保ち、外れ値に対して堅牢な新しいFLである。
傾き値のチューニングが2段階の公平性を実現し、持続的なアウトレーラを緩和できることを示す。
論文 参考訳(メタデータ) (2025-03-15T19:57:23Z) - FedPCA: Noise-Robust Fair Federated Learning via Performance-Capacity Analysis [39.424995330773264]
FedPCAは損失分散ペア上のガウス混合モデルを介して、誤ラベルされたクライアントを特定する。
クライアントの重みを調整し、信頼性のあるデータを選択的に利用することで、グローバルアグリゲーションとローカルトレーニングに公正性と堅牢性戦略を適用する。
論文 参考訳(メタデータ) (2025-03-13T17:18:18Z) - Feasible Learning [78.6167929413604]
本稿では,サンプル中心の学習パラダイムであるFeasible Learning(FL)を紹介する。
大規模言語モデルにおける画像分類, 年齢回帰, 好みの最適化といった経験的分析により, FLを用いて訓練したモデルでは, 平均的性能に限界があるものの, ERMと比較して改善された尾の挙動を示しながらデータから学習できることが実証された。
論文 参考訳(メタデータ) (2025-01-24T20:39:38Z) - Towards Harmless Rawlsian Fairness Regardless of Demographic Prior [57.30787578956235]
トレーニングセットに事前の人口統計が提供されない場合に,有効性を損なうことなく公平性を達成する可能性を探る。
本稿では,経験的損失の最適セット内でのトレーニング損失の分散を最小限に抑えるため,VFairという簡単な手法を提案する。
論文 参考訳(メタデータ) (2024-11-04T12:40:34Z) - PUFFLE: Balancing Privacy, Utility, and Fairness in Federated Learning [2.8304839563562436]
公平さとプライバシの原則を同時に遵守するマシンラーニングモデルのトレーニングとデプロイは、大きな課題となる。
本稿では,FLシナリオにおける実用性,プライバシ,公正性のバランスを探究する上で有効な,高レベルのパラメータ化アプローチであるPUFFLEを紹介する。
PUFFLEは多様なデータセット,モデル,データ分布に対して有効であり,モデルの不公平性を75%まで低減し,最悪のシナリオでは有効性を最大17%削減できることを示す。
論文 参考訳(メタデータ) (2024-07-21T17:22:18Z) - FedCompetitors: Harmonious Collaboration in Federated Learning with
Competing Participants [41.070716405671206]
フェデレートラーニング(FL)は、機械学習モデルの協調トレーニングのためのプライバシ保護アプローチを提供する。
データ補完性に基づいて各FL参加者に対して適切な協力者を選択することが重要である。
一部のFL-PTが競合するFL-PT間の個人間関係を考えることは必須である。
論文 参考訳(メタデータ) (2023-12-18T17:53:01Z) - Multi-dimensional Fair Federated Learning [25.07463977553212]
フェデレートラーニング(FL)は、分散データからモデルをトレーニングするための、有望な協調的でセキュアなパラダイムとして登場した。
群フェアネスとクライアントフェアネスは、FLにとって重要である2次元のフェアネスである。
グループフェアネスとクライアントフェアネスを同時に達成するために,mFairFLと呼ばれる手法を提案する。
論文 参考訳(メタデータ) (2023-12-09T11:37:30Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Fairness-aware Federated Minimax Optimization with Convergence Guarantee [10.727328530242461]
フェデレートラーニング(FL)はそのプライバシー保護機能のためにかなりの注目を集めている。
ユーザデータ管理の自由の欠如は、モデルが人種や性別などのセンシティブな要因に偏っている、グループフェアネスの問題につながる可能性がある。
本稿では,FLにおけるグループフェアネス問題に明示的に対処するために,拡張ラグランジアン法(FFALM)を用いたフェアフェデレーション平均化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-10T08:45:58Z) - FairVFL: A Fair Vertical Federated Learning Framework with Contrastive
Adversarial Learning [102.92349569788028]
本稿では,VFLモデルの公平性を改善するために,FairVFL( Fair vertical federated learning framework)を提案する。
FairVFLの中核となる考え方は、分散化された機能フィールドに基づいたサンプルの統一的で公正な表現を、プライバシ保護の方法で学習することである。
ユーザのプライバシ保護のために,サーバ内の統一表現からプライベート情報を除去する対向学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-07T11:43:32Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [86.59588262014456]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Federated Robustness Propagation: Sharing Adversarial Robustness in
Federated Learning [98.05061014090913]
フェデレートラーニング(FL)は、生データを共有することなく、参加するユーザのセットから学習する、人気のある分散ラーニングスキーマとして登場した。
敵対的トレーニング(AT)は集中学習のための健全なソリューションを提供する。
既存のFL技術では,非IDユーザ間の対向的ロバスト性を効果的に広めることができないことを示す。
本稿では, バッチ正規化統計量を用いてロバスト性を伝達する, 単純かつ効果的な伝搬法を提案する。
論文 参考訳(メタデータ) (2021-06-18T15:52:33Z) - Private Cross-Silo Federated Learning for Extracting Vaccine Adverse
Event Mentions [0.7349727826230862]
Federated Learning(FL)は、ユーザーが物理的にデータを共有せずにグローバルモデルを共同トレーニングするためのゴト分散トレーニングパラダイムです。
FLベースのトレーニングで得られたさまざまな利点の次元の包括的な実証的分析を紹介します。
ローカルDPは,グローバルモデルの予測精度を著しく損なう可能性を示し,ユーザによるフェデレーションへの参加を阻害する。
論文 参考訳(メタデータ) (2021-03-12T19:20:33Z) - Mitigating Bias in Federated Learning [9.295028968787351]
本稿では,フェデレートラーニング(FL)におけるバイアスの原因について議論する。
データプライバシを損なうことなく、バイアスを軽減するために、前処理と内処理の3つの方法を提案する。
我々は、モデル性能、公平度メトリクス、バイアス学習パターンに対する影響を分析するために、複数のデータ分布に対して実験を行う。
論文 参考訳(メタデータ) (2020-12-04T08:04:12Z) - A Principled Approach to Data Valuation for Federated Learning [73.19984041333599]
フェデレートラーニング(FL)は、分散データソース上で機械学習(ML)モデルをトレーニングする一般的なテクニックである。
Shapley value (SV) はデータ値の概念として多くのデシラタを満たすユニークなペイオフスキームを定義する。
本稿では,FL に対応する SV の変種を提案する。
論文 参考訳(メタデータ) (2020-09-14T04:37:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。