論文の概要: Cumulative Utility Parity for Fair Federated Learning under Intermittent Client Participation
- arxiv url: http://arxiv.org/abs/2602.13651v1
- Date: Sat, 14 Feb 2026 07:42:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.315751
- Title: Cumulative Utility Parity for Fair Federated Learning under Intermittent Client Participation
- Title(参考訳): 間欠的クライアント参加による公正なフェデレーション学習のための累積的ユーティリティパリティ
- Authors: Stefan Behfar, Richard Mortier,
- Abstract要約: 現実世界のフェデレーション学習システムでは、クライアントの参加は断続的で不均一であり、しばしばデータ特性やリソース制約と相関する。
本稿では,クライアントがトレーニングラウンド毎にではなく,参加機会当たりの長期的利益を享受できるかどうかを評価するフェアネスの原則である累積ユーティリティパリティを提案する。
- 参考スコア(独自算出の注目度): 0.04910937238451484
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In real-world federated learning (FL) systems, client participation is intermittent, heterogeneous, and often correlated with data characteristics or resource constraints. Existing fairness approaches in FL primarily focus on equalizing loss or accuracy conditional on participation, implicitly assuming that clients have comparable opportunities to contribute over time. However, when participation itself is uneven, these objectives can lead to systematic under-representation of intermittently available clients, even if per-round performance appears fair. We propose cumulative utility parity, a fairness principle that evaluates whether clients receive comparable long-term benefit per participation opportunity, rather than per training round. To operationalize this notion, we introduce availability-normalized cumulative utility, which disentangles unavoidable physical constraints from avoidable algorithmic bias arising from scheduling and aggregation. Experiments on temporally skewed, non-IID federated benchmarks demonstrate that our approach substantially improves long-term representation parity, while maintaining near-perfect performance.
- Abstract(参考訳): 現実世界の連邦学習(FL)システムでは、クライアントの参加は断続的で不均一であり、しばしばデータ特性やリソース制約と相関する。
FL の既存の公正なアプローチは、主に損失の等化や参加条件の正確さに重点を置いており、クライアントが時間とともに貢献する機会に匹敵するものであることを暗黙的に仮定している。
しかし、参加自体が不均一である場合、これらの目的は、たとえ丸ごとのパフォーマンスが公平であったとしても、断続的に利用可能なクライアントの体系的な下位表現につながる可能性がある。
本稿では,クライアントがトレーニングラウンド毎にではなく,参加機会当たりの長期的利益を享受できるかどうかを評価するフェアネスの原則である累積ユーティリティパリティを提案する。
この概念を運用するために、スケジューリングやアグリゲーションによる回避可能なアルゴリズムバイアスから避けられない物理的制約を解消する可用性正規化累積ユーティリティを導入する。
時間的に歪んだ非IIDフェデレーションベンチマークの実験では、我々のアプローチは、ほぼ完全な性能を維持しながら、長期的な表現パリティを大幅に改善することを示した。
関連論文リスト
- Fairness Regularization in Federated Learning [1.4773243280881763]
フェデレートラーニング(FL)は、現代の機械学習において重要なパラダイムとして登場した。
この研究は、クライアント間のパフォーマンスの違いを最小限に抑えることを目的とした、パフォーマンスの公平性に焦点を当てている。
FairGrad (approximate) と FairGrad* (exact) が不均一なデータ設定における公平性と全体的なモデルパフォーマンスを改善することを実証的に示す。
論文 参考訳(メタデータ) (2025-08-16T13:32:41Z) - Convergence of Agnostic Federated Averaging [0.0]
フェデレートラーニング(FL)は、生データを集中化せずに、分散モデルトレーニングを可能にする。
クライアントは、サーバアグリゲーションに断続的に参加し、未知の、おそらくバイアスのある参加確率で参加する。
論文 参考訳(メタデータ) (2025-07-14T14:32:46Z) - FeDa4Fair: Client-Level Federated Datasets for Fairness Evaluation [5.195640929313995]
Federated Learning (FL)は、クライアントのプライベートデータを共有せずに、複数のクライアント間で協調的なモデルトレーニングを可能にする。
クライアントにまたがる多様で、しばしば矛盾するバイアスは、公正性をモデル化する上で大きな課題をもたらします。
現在のフェアネス・エンハンシング FL ソリューションは、1つの、通常二進的、敏感な属性に対するバイアスを緩和する一方、現実世界の環境に存在する不均一なフェアネスのニーズを無視しているため、しばしば不足する。
論文 参考訳(メタデータ) (2025-06-26T08:43:12Z) - Remember, but also, Forget: Bridging Myopic and Perfect Recall Fairness with Past-Discounting [4.788163807490197]
マルチエージェント設定における動的リソース割り当ては、時間とともに公平さとバランスをとる必要があることが多い。
人間の公正判断は時間的距離とともに進化するという行動的洞察に触発され,過去の分散メカニズムを取り入れた時間的公正のための新しい枠組みを導入する。
本稿では, 付加的・平均的ユーティリティ・コンテキストにおけるディスカウント・リコール・フェアネスの定式化について詳述し, そのメリットを実例で説明するとともに, バランスよくスケーラブルな資源配分戦略を設計する上での意義について論じる。
論文 参考訳(メタデータ) (2025-04-01T19:42:17Z) - FedPCA: Noise-Robust Fair Federated Learning via Performance-Capacity Analysis [39.424995330773264]
FedPCAは損失分散ペア上のガウス混合モデルを介して、誤ラベルされたクライアントを特定する。
クライアントの重みを調整し、信頼性のあるデータを選択的に利用することで、グローバルアグリゲーションとローカルトレーニングに公正性と堅牢性戦略を適用する。
論文 参考訳(メタデータ) (2025-03-13T17:18:18Z) - Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - Relaxed Contrastive Learning for Federated Learning [48.96253206661268]
本稿では,フェデレート学習におけるデータ不均一性の課題に対処する,新しいコントラスト学習フレームワークを提案する。
当社のフレームワークは,既存のフェデレート学習アプローチを,標準ベンチマークにおいて大きなマージンで上回ります。
論文 参考訳(メタデータ) (2024-01-10T04:55:24Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。