論文の概要: Semi-Variance Reduction for Fair Federated Learning
- arxiv url: http://arxiv.org/abs/2406.16193v1
- Date: Sun, 23 Jun 2024 19:14:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-25 18:34:57.486784
- Title: Semi-Variance Reduction for Fair Federated Learning
- Title(参考訳): フェアフェデレーション学習のための半可変化
- Authors: Saber Malekmohammadi,
- Abstract要約: 我々は2つの新しいフェアFLアルゴリズム、Variance Reduction(VRed)とSemi-Variance Reduction(VRed)を提案し、研究する。
VRedは、クライアントの損失関数間の平等を奨励し、分散を罰する。
対照的に、SemiVRedは、最悪のクライアントの損失関数と平均損失との差を罰する。
- 参考スコア(独自算出の注目度): 0.6526824510982802
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensuring fairness in a Federated Learning (FL) system, i.e., a satisfactory performance for all of the participating diverse clients, is an important and challenging problem. There are multiple fair FL algorithms in the literature, which have been relatively successful in providing fairness. However, these algorithms mostly emphasize on the loss functions of worst-off clients to improve their performance, which often results in the suppression of well-performing ones. As a consequence, they usually sacrifice the system's overall average performance for achieving fairness. Motivated by this and inspired by two well-known risk modeling methods in Finance, Mean-Variance and Mean-Semi-Variance, we propose and study two new fair FL algorithms, Variance Reduction (VRed) and Semi-Variance Reduction (SemiVRed). VRed encourages equality between clients' loss functions by penalizing their variance. In contrast, SemiVRed penalizes the discrepancy of only the worst-off clients' loss functions from the average loss. Through extensive experiments on multiple vision and language datasets, we show that, SemiVRed achieves SoTA performance in scenarios with heterogeneous data distributions and improves both fairness and system overall average performance.
- Abstract(参考訳): フェデレートラーニング(FL)システムにおける公正性の確保、すなわち、参加する多種多様なクライアントすべてにとって満足なパフォーマンスは、重要かつ困難な問題である。
文献には複数のフェアFLアルゴリズムがあり、フェアネスを提供するのに比較的成功した。
しかしながら、これらのアルゴリズムは、パフォーマンスを改善するために最悪のクライアントの損失関数を強調しており、しばしば良好なパフォーマンスのクライアントを抑圧する。
結果として、彼らは通常、公平性を達成するためにシステム全体の平均パフォーマンスを犠牲にします。
そこで本研究では,金融におけるリスクモデリング手法である平均値と平均値の2つに着想を得て,新しいフェアFLアルゴリズムである変動低減法(VRed)と半値低減法(SemiVRed)を提案し,検討した。
VRedは、クライアントの損失関数間の平等を奨励し、分散を罰する。
対照的に、SemiVRedは、最悪のクライアントの損失関数と平均損失との差を罰する。
複数のビジョンと言語データセットに関する広範な実験を通して、SemiVRedは不均一なデータ分布を持つシナリオにおいてSoTAのパフォーマンスを達成し、公平性とシステム全体の平均性能を向上することを示した。
関連論文リスト
- Towards Harmless Rawlsian Fairness Regardless of Demographic Prior [57.30787578956235]
トレーニングセットに事前の人口統計が提供されない場合に,有効性を損なうことなく公平性を達成する可能性を探る。
本稿では,経験的損失の最適セット内でのトレーニング損失の分散を最小限に抑えるため,VFairという簡単な手法を提案する。
論文 参考訳(メタデータ) (2024-11-04T12:40:34Z) - Fair Bilevel Neural Network (FairBiNN): On Balancing fairness and accuracy via Stackelberg Equilibrium [0.3350491650545292]
バイアスを緩和する現在の方法は、情報損失と精度と公平性のバランスが不十分であることが多い。
本稿では,二段階最適化の原理に基づく新しい手法を提案する。
私たちのディープラーニングベースのアプローチは、正確性と公平性の両方を同時に最適化します。
論文 参考訳(メタデータ) (2024-10-21T18:53:39Z) - Fair Class-Incremental Learning using Sample Weighting [27.82760149957115]
本研究は,現在行われている課題のすべてのサンプルを鼻で使用することにより,クラスを含む特定のセンシティブなグループに対して不当な破滅的忘れを生じさせることを示す。
平均勾配ベクトルの方向を変えるために,現在のタスクサンプルのトレーニング重みを調整する,公平なクラス増分学習フレームワークを提案する。
実験により、FSWは実際のデータセットに対する最先端のアプローチよりも精度・公正なトレードオフ結果が得られることが示された。
論文 参考訳(メタデータ) (2024-10-02T08:32:21Z) - Enhancing Fairness in Neural Networks Using FairVIC [0.0]
自動意思決定システム、特にディープラーニングモデルにおけるバイアスの緩和は、公平性を達成する上で重要な課題である。
FairVICは、トレーニング段階で固有のバイアスに対処することによって、ニューラルネットワークの公平性を高めるために設計された革新的なアプローチである。
我々は、モデルの精度を有害な程度に向上させることなく、テスト対象のすべての指標の公平性を大幅に改善する。
論文 参考訳(メタデータ) (2024-04-28T10:10:21Z) - Fairness-enhancing mixed effects deep learning improves fairness on in- and out-of-distribution clustered (non-iid) data [6.596656267996196]
フェア・ミックスド・エフェクト・ディープ・ラーニング(Fair MEDL)フレームワークを紹介する。
Fair MEDLは、クラスタ不変固定効果(FE)とクラスタ固有ランダム効果(RE)を定量化する
敵の偏見を取り入れて、平等化オッド、デモグラフィックパリティ、カウンターファクトフェアネスの3つの主要な指標の公平性を促進する。
論文 参考訳(メタデータ) (2023-10-04T20:18:45Z) - Anti-Matthew FL: Bridging the Performance Gap in Federated Learning to Counteract the Matthew Effect [4.716839088197377]
フェデレートラーニング(FL)は、異種および多種多様なデータセット間のモデルトレーニングを容易にする。
本研究では,クライアントレベルでのグローバルモデルに対するアンチマシューフェアネスを提案する。
提案するアンチマシューFLは,高性能なグローバルモデルを実現する上で,他の最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-09-28T10:51:12Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Beyond ADMM: A Unified Client-variance-reduced Adaptive Federated
Learning Framework [82.36466358313025]
我々はFedVRAと呼ばれる原始二重FLアルゴリズムを提案し、このアルゴリズムはグローバルモデルの分散還元レベルとバイアスを適応的に制御することができる。
半教師付き画像分類タスクに基づく実験は,既存の手法よりもFedVRAの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-12-03T03:27:51Z) - Improving Robust Fairness via Balance Adversarial Training [51.67643171193376]
対人訓練 (AT) 法は, 対人攻撃に対して有効であるが, 異なるクラス間での精度と頑健さの相違が激しい。
本稿では,頑健な公正性問題に対処するために,BAT(Adversarial Training)を提案する。
論文 参考訳(メタデータ) (2022-09-15T14:44:48Z) - Fair and Consistent Federated Learning [48.19977689926562]
フェデレートラーニング(FL)は、分散データソースから学習する能力に対する関心が高まっている。
本稿では,異なるローカルクライアント間で性能整合性とアルゴリズムフェアネスを協調的に検討するFLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-19T01:56:08Z) - Deep F-measure Maximization for End-to-End Speech Understanding [52.36496114728355]
本稿では,F測度に対する微分可能な近似法を提案し,標準バックプロパゲーションを用いてネットワークをトレーニングする。
我々は、アダルト、コミュニティ、犯罪の2つの標準フェアネスデータセットの実験を行い、ATISデータセットの音声・インテリジェンス検出と音声・COCOデータセットの音声・イメージ概念分類を行った。
これらの4つのタスクのすべてにおいて、F測定は、クロスエントロピー損失関数で訓練されたモデルと比較して、最大8%の絶対的な絶対的な改善を含む、マイクロF1スコアの改善をもたらす。
論文 参考訳(メタデータ) (2020-08-08T03:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。