論文の概要: Semi-Variance Reduction for Fair Federated Learning
- arxiv url: http://arxiv.org/abs/2406.16193v1
- Date: Sun, 23 Jun 2024 19:14:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-25 18:34:57.486784
- Title: Semi-Variance Reduction for Fair Federated Learning
- Title(参考訳): フェアフェデレーション学習のための半可変化
- Authors: Saber Malekmohammadi,
- Abstract要約: 我々は2つの新しいフェアFLアルゴリズム、Variance Reduction(VRed)とSemi-Variance Reduction(VRed)を提案し、研究する。
VRedは、クライアントの損失関数間の平等を奨励し、分散を罰する。
対照的に、SemiVRedは、最悪のクライアントの損失関数と平均損失との差を罰する。
- 参考スコア(独自算出の注目度): 0.6526824510982802
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensuring fairness in a Federated Learning (FL) system, i.e., a satisfactory performance for all of the participating diverse clients, is an important and challenging problem. There are multiple fair FL algorithms in the literature, which have been relatively successful in providing fairness. However, these algorithms mostly emphasize on the loss functions of worst-off clients to improve their performance, which often results in the suppression of well-performing ones. As a consequence, they usually sacrifice the system's overall average performance for achieving fairness. Motivated by this and inspired by two well-known risk modeling methods in Finance, Mean-Variance and Mean-Semi-Variance, we propose and study two new fair FL algorithms, Variance Reduction (VRed) and Semi-Variance Reduction (SemiVRed). VRed encourages equality between clients' loss functions by penalizing their variance. In contrast, SemiVRed penalizes the discrepancy of only the worst-off clients' loss functions from the average loss. Through extensive experiments on multiple vision and language datasets, we show that, SemiVRed achieves SoTA performance in scenarios with heterogeneous data distributions and improves both fairness and system overall average performance.
- Abstract(参考訳): フェデレートラーニング(FL)システムにおける公正性の確保、すなわち、参加する多種多様なクライアントすべてにとって満足なパフォーマンスは、重要かつ困難な問題である。
文献には複数のフェアFLアルゴリズムがあり、フェアネスを提供するのに比較的成功した。
しかしながら、これらのアルゴリズムは、パフォーマンスを改善するために最悪のクライアントの損失関数を強調しており、しばしば良好なパフォーマンスのクライアントを抑圧する。
結果として、彼らは通常、公平性を達成するためにシステム全体の平均パフォーマンスを犠牲にします。
そこで本研究では,金融におけるリスクモデリング手法である平均値と平均値の2つに着想を得て,新しいフェアFLアルゴリズムである変動低減法(VRed)と半値低減法(SemiVRed)を提案し,検討した。
VRedは、クライアントの損失関数間の平等を奨励し、分散を罰する。
対照的に、SemiVRedは、最悪のクライアントの損失関数と平均損失との差を罰する。
複数のビジョンと言語データセットに関する広範な実験を通して、SemiVRedは不均一なデータ分布を持つシナリオにおいてSoTAのパフォーマンスを達成し、公平性とシステム全体の平均性能を向上することを示した。
関連論文リスト
- Over-the-Air Fair Federated Learning via Multi-Objective Optimization [52.295563400314094]
本稿では,公平なFLモデルを訓練するためのOTA-FFL(Over-the-air Fair Federated Learning Algorithm)を提案する。
OTA-FFLの公正性とロバストな性能に対する優位性を示す実験を行った。
論文 参考訳(メタデータ) (2025-01-06T21:16:51Z) - Towards Harmless Rawlsian Fairness Regardless of Demographic Prior [57.30787578956235]
トレーニングセットに事前の人口統計が提供されない場合に,有効性を損なうことなく公平性を達成する可能性を探る。
本稿では,経験的損失の最適セット内でのトレーニング損失の分散を最小限に抑えるため,VFairという簡単な手法を提案する。
論文 参考訳(メタデータ) (2024-11-04T12:40:34Z) - Fair Bilevel Neural Network (FairBiNN): On Balancing fairness and accuracy via Stackelberg Equilibrium [0.3350491650545292]
バイアスを緩和する現在の方法は、情報損失と精度と公平性のバランスが不十分であることが多い。
本稿では,二段階最適化の原理に基づく新しい手法を提案する。
私たちのディープラーニングベースのアプローチは、正確性と公平性の両方を同時に最適化します。
論文 参考訳(メタデータ) (2024-10-21T18:53:39Z) - Fair Class-Incremental Learning using Sample Weighting [27.82760149957115]
本研究は,現在行われている課題のすべてのサンプルを鼻で使用することにより,クラスを含む特定のセンシティブなグループに対して不当な破滅的忘れを生じさせることを示す。
平均勾配ベクトルの方向を変えるために,現在のタスクサンプルのトレーニング重みを調整する,公平なクラス増分学習フレームワークを提案する。
実験により、FSWは実際のデータセットに対する最先端のアプローチよりも精度・公正なトレードオフ結果が得られることが示された。
論文 参考訳(メタデータ) (2024-10-02T08:32:21Z) - Learning Fairer Representations with FairVIC [0.0]
自動意思決定システムにおけるバイアスの緩和は、公平さとデータセット固有のバイアスのニュアンスな定義のために重要な課題である。
学習中の損失関数に分散項、不変項、共分散項を統合することにより、ニューラルネットワークの公平性を高める革新的なアプローチであるFairVICを導入する。
ベンチマークデータセットにおけるFairVICを,グループと個人の両方の公正性を考慮して比較して評価し,精度と公正性のトレードオフに関するアブレーション研究を行う。
論文 参考訳(メタデータ) (2024-04-28T10:10:21Z) - Fairness-enhancing mixed effects deep learning improves fairness on in- and out-of-distribution clustered (non-iid) data [6.596656267996196]
フェア・ミックスド・エフェクト・ディープ・ラーニング(Fair MEDL)フレームワークを提案する。
本フレームワークは,1)不変なFEを学習するためのクラスタ逆効果,2)REのためのベイズニューラルネットワーク,3)最終的な予測のためにFEとREを組み合わせた混合関数,を通じて,クラスタ不変な固定効果(FE)とクラスタ固有ランダムエフェクト(RE)を定量化する。
公正なMEDLフレームワークは、年齢で86.4%、人種で64.9%、性で57.8%、結婚で36.2%の公正性を向上し、堅牢な予測性能を維持している。
論文 参考訳(メタデータ) (2023-10-04T20:18:45Z) - Anti-Matthew FL: Bridging the Performance Gap in Federated Learning to Counteract the Matthew Effect [4.716839088197377]
フェデレートラーニング(FL)は、異種および多種多様なデータセット間のモデルトレーニングを容易にする。
本研究では,クライアントレベルでのグローバルモデルに対するアンチマシューフェアネスを提案する。
提案するアンチマシューFLは,高性能なグローバルモデルを実現する上で,他の最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-09-28T10:51:12Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Improving Robust Fairness via Balance Adversarial Training [51.67643171193376]
対人訓練 (AT) 法は, 対人攻撃に対して有効であるが, 異なるクラス間での精度と頑健さの相違が激しい。
本稿では,頑健な公正性問題に対処するために,BAT(Adversarial Training)を提案する。
論文 参考訳(メタデータ) (2022-09-15T14:44:48Z) - Fair and Consistent Federated Learning [48.19977689926562]
フェデレートラーニング(FL)は、分散データソースから学習する能力に対する関心が高まっている。
本稿では,異なるローカルクライアント間で性能整合性とアルゴリズムフェアネスを協調的に検討するFLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-19T01:56:08Z) - Deep F-measure Maximization for End-to-End Speech Understanding [52.36496114728355]
本稿では,F測度に対する微分可能な近似法を提案し,標準バックプロパゲーションを用いてネットワークをトレーニングする。
我々は、アダルト、コミュニティ、犯罪の2つの標準フェアネスデータセットの実験を行い、ATISデータセットの音声・インテリジェンス検出と音声・COCOデータセットの音声・イメージ概念分類を行った。
これらの4つのタスクのすべてにおいて、F測定は、クロスエントロピー損失関数で訓練されたモデルと比較して、最大8%の絶対的な絶対的な改善を含む、マイクロF1スコアの改善をもたらす。
論文 参考訳(メタデータ) (2020-08-08T03:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。