論文の概要: Cumulative Utility Parity for Fair Federated Learning under Intermittent Client Participation
- arxiv url: http://arxiv.org/abs/2602.13651v1
- Date: Sat, 14 Feb 2026 07:42:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.315751
- Title: Cumulative Utility Parity for Fair Federated Learning under Intermittent Client Participation
- Title(参考訳): 間欠的クライアント参加による公正なフェデレーション学習のための累積的ユーティリティパリティ
- Authors: Stefan Behfar, Richard Mortier,
- Abstract要約: 現実世界のフェデレーション学習システムでは、クライアントの参加は断続的で不均一であり、しばしばデータ特性やリソース制約と相関する。
本稿では,クライアントがトレーニングラウンド毎にではなく,参加機会当たりの長期的利益を享受できるかどうかを評価するフェアネスの原則である累積ユーティリティパリティを提案する。
- 参考スコア(独自算出の注目度): 0.04910937238451484
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In real-world federated learning (FL) systems, client participation is intermittent, heterogeneous, and often correlated with data characteristics or resource constraints. Existing fairness approaches in FL primarily focus on equalizing loss or accuracy conditional on participation, implicitly assuming that clients have comparable opportunities to contribute over time. However, when participation itself is uneven, these objectives can lead to systematic under-representation of intermittently available clients, even if per-round performance appears fair. We propose cumulative utility parity, a fairness principle that evaluates whether clients receive comparable long-term benefit per participation opportunity, rather than per training round. To operationalize this notion, we introduce availability-normalized cumulative utility, which disentangles unavoidable physical constraints from avoidable algorithmic bias arising from scheduling and aggregation. Experiments on temporally skewed, non-IID federated benchmarks demonstrate that our approach substantially improves long-term representation parity, while maintaining near-perfect performance.
- Abstract(参考訳): 現実世界の連邦学習(FL)システムでは、クライアントの参加は断続的で不均一であり、しばしばデータ特性やリソース制約と相関する。
FL の既存の公正なアプローチは、主に損失の等化や参加条件の正確さに重点を置いており、クライアントが時間とともに貢献する機会に匹敵するものであることを暗黙的に仮定している。
しかし、参加自体が不均一である場合、これらの目的は、たとえ丸ごとのパフォーマンスが公平であったとしても、断続的に利用可能なクライアントの体系的な下位表現につながる可能性がある。
本稿では,クライアントがトレーニングラウンド毎にではなく,参加機会当たりの長期的利益を享受できるかどうかを評価するフェアネスの原則である累積ユーティリティパリティを提案する。
この概念を運用するために、スケジューリングやアグリゲーションによる回避可能なアルゴリズムバイアスから避けられない物理的制約を解消する可用性正規化累積ユーティリティを導入する。
時間的に歪んだ非IIDフェデレーションベンチマークの実験では、我々のアプローチは、ほぼ完全な性能を維持しながら、長期的な表現パリティを大幅に改善することを示した。
関連論文リスト
- Stragglers Can Contribute More: Uncertainty-Aware Distillation for Asynchronous Federated Learning [61.249748418757946]
Asynchronous Federated Learning (FL)は、その効率性とスケーラビリティの向上に注目されている。
我々は,不確実性を考慮した蒸留を組み込んだ新しいフレームワークであるFedEchoを提案し,非同期FL性能を向上する。
FedEchoが既存の非同期フェデレーション学習ベースラインを一貫して上回っていることを実証する。
論文 参考訳(メタデータ) (2025-11-25T06:25:25Z) - Fairness Regularization in Federated Learning [1.4773243280881763]
フェデレートラーニング(FL)は、現代の機械学習において重要なパラダイムとして登場した。
この研究は、クライアント間のパフォーマンスの違いを最小限に抑えることを目的とした、パフォーマンスの公平性に焦点を当てている。
FairGrad (approximate) と FairGrad* (exact) が不均一なデータ設定における公平性と全体的なモデルパフォーマンスを改善することを実証的に示す。
論文 参考訳(メタデータ) (2025-08-16T13:32:41Z) - Convergence of Agnostic Federated Averaging [0.0]
フェデレートラーニング(FL)は、生データを集中化せずに、分散モデルトレーニングを可能にする。
クライアントは、サーバアグリゲーションに断続的に参加し、未知の、おそらくバイアスのある参加確率で参加する。
論文 参考訳(メタデータ) (2025-07-14T14:32:46Z) - FeDa4Fair: Client-Level Federated Datasets for Fairness Evaluation [5.195640929313995]
Federated Learning (FL)は、クライアントのプライベートデータを共有せずに、複数のクライアント間で協調的なモデルトレーニングを可能にする。
クライアントにまたがる多様で、しばしば矛盾するバイアスは、公正性をモデル化する上で大きな課題をもたらします。
現在のフェアネス・エンハンシング FL ソリューションは、1つの、通常二進的、敏感な属性に対するバイアスを緩和する一方、現実世界の環境に存在する不均一なフェアネスのニーズを無視しているため、しばしば不足する。
論文 参考訳(メタデータ) (2025-06-26T08:43:12Z) - Remember, but also, Forget: Bridging Myopic and Perfect Recall Fairness with Past-Discounting [4.788163807490197]
マルチエージェント設定における動的リソース割り当ては、時間とともに公平さとバランスをとる必要があることが多い。
人間の公正判断は時間的距離とともに進化するという行動的洞察に触発され,過去の分散メカニズムを取り入れた時間的公正のための新しい枠組みを導入する。
本稿では, 付加的・平均的ユーティリティ・コンテキストにおけるディスカウント・リコール・フェアネスの定式化について詳述し, そのメリットを実例で説明するとともに, バランスよくスケーラブルな資源配分戦略を設計する上での意義について論じる。
論文 参考訳(メタデータ) (2025-04-01T19:42:17Z) - FedPCA: Noise-Robust Fair Federated Learning via Performance-Capacity Analysis [39.424995330773264]
FedPCAは損失分散ペア上のガウス混合モデルを介して、誤ラベルされたクライアントを特定する。
クライアントの重みを調整し、信頼性のあるデータを選択的に利用することで、グローバルアグリゲーションとローカルトレーニングに公正性と堅牢性戦略を適用する。
論文 参考訳(メタデータ) (2025-03-13T17:18:18Z) - Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - Achieving Fairness Across Local and Global Models in Federated Learning [9.902848777262918]
本研究は,フェデレート学習環境における局所的およびグローバル的公正性を高めるために設計された,新しいアプローチであるtextttEquiFLを紹介する。
textttEquiFLは、フェアネスという用語を局所最適化の目的に取り入れ、局所的なパフォーマンスとフェアネスを効果的にバランスさせる。
textttEquiFLは、各クライアントにおいて、精度と公平性のバランスが良くなるだけでなく、グローバル公正性も達成できることを示す。
論文 参考訳(メタデータ) (2024-06-24T19:42:16Z) - Emulating Full Participation: An Effective and Fair Client Selection Strategy for Federated Learning [50.060154488277036]
連合学習では、クライアントの選択はモデルの性能と公平性の両方に大きな影響を及ぼす重要な問題である。
2つの指標間の固有の対立に対処し、互いに強化する2つの原則を提案する。
提案手法は,データ分布に基づいてクライアントを選択することにより,この多様性を適応的に向上させ,モデル性能と公平性の両方を改善する。
論文 参考訳(メタデータ) (2024-05-22T12:27:24Z) - Relaxed Contrastive Learning for Federated Learning [48.96253206661268]
本稿では,フェデレート学習におけるデータ不均一性の課題に対処する,新しいコントラスト学習フレームワークを提案する。
当社のフレームワークは,既存のフェデレート学習アプローチを,標準ベンチマークにおいて大きなマージンで上回ります。
論文 参考訳(メタデータ) (2024-01-10T04:55:24Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。