論文の概要: FedFair: Training Fair Models In Cross-Silo Federated Learning
- arxiv url: http://arxiv.org/abs/2109.05662v1
- Date: Mon, 13 Sep 2021 01:30:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-15 11:10:57.737080
- Title: FedFair: Training Fair Models In Cross-Silo Federated Learning
- Title(参考訳): FedFair: クロスサイロのフェデレーション学習におけるフェアモデルのトレーニング
- Authors: Lingyang Chu, Lanjun Wang, Yanjie Dong, Jian Pei, Zirui Zhou, Yong
Zhang
- Abstract要約: 我々はFedFairを開発した。FedFairは、よく設計されたフェデレートされた学習フレームワークで、データプライバシーを侵害することなく、高いパフォーマンスで公正なモデルをトレーニングできる。
実世界の3つのデータセットに対する実験により,本手法の優れた公正モデルトレーニング性能が示された。
- 参考スコア(独自算出の注目度): 47.63052284529811
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Building fair machine learning models becomes more and more important. As
many powerful models are built by collaboration among multiple parties, each
holding some sensitive data, it is natural to explore the feasibility of
training fair models in cross-silo federated learning so that fairness, privacy
and collaboration can be fully respected simultaneously. However, it is a very
challenging task, since it is far from trivial to accurately estimate the
fairness of a model without knowing the private data of the participating
parties. In this paper, we first propose a federated estimation method to
accurately estimate the fairness of a model without infringing the data privacy
of any party. Then, we use the fairness estimation to formulate a novel problem
of training fair models in cross-silo federated learning. We develop FedFair, a
well-designed federated learning framework, which can successfully train a fair
model with high performance without any data privacy infringement. Our
extensive experiments on three real-world data sets demonstrate the excellent
fair model training performance of our method.
- Abstract(参考訳): 公正な機械学習モデルの構築はますます重要になる。
多くの強力なモデルは、複数の当事者の協力によって構築され、それぞれが機密データを持っているため、公平性、プライバシー、コラボレーションが同時に尊重されるように、クロスサイロフェデレーション学習における公平なモデルをトレーニングする可能性を検討するのは自然である。
しかし,参加者の個人データを知ることなく,モデルの公平性を正確に推定することは容易ではないため,非常に難しい課題である。
本稿では,まず,相手のデータプライバシーを侵害することなく,モデルの公平性を正確に推定するフェデレーション推定手法を提案する。
次に、公平度推定を用いて、クロスサイロ・フェデレーション学習においてフェアモデルをトレーニングする新しい問題を定式化する。
我々はFedFairを開発した。FedFairはよく設計されたフェデレーション学習フレームワークで、データプライバシーの侵害なしに高いパフォーマンスで公正なモデルをトレーニングできる。
実世界の3つのデータセットに対する広範な実験により,本手法の優れた公正モデルトレーニング性能が示された。
関連論文リスト
- Fairness-Aware Interpretable Modeling (FAIM) for Trustworthy Machine
Learning in Healthcare [6.608905791768002]
フェアネス・アウェア・インタプリタブル・モデリング(FAIM)を提案し,性能を損なうことなくモデルフェアネスを改善する。
FAIMは、ハイパフォーマンスモデルのセットから"フェアラー"モデルを識別するためのインタラクティブインターフェースを備えている。
FAIMモデルは, 良好な識別性能を示すだけでなく, 確立された公正度測定値によって測定されたバイアスを著しく軽減することを示した。
論文 参考訳(メタデータ) (2024-03-08T11:51:00Z) - Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Accelerating Fair Federated Learning: Adaptive Federated Adam [0.0]
データセットが独立で同一に分散されていない場合(非IID)、単純なフェデレーションアルゴリズムによってトレーニングされたモデルは、特定の参加者に偏りが生じる可能性がある。
これは連合学習における公平性問題として知られている。
本稿では,適応的フェデレーション・アダム(AdaFedAdam)を提案し,偏見を緩和して公正なフェデレーション・ラーニングを加速させる。
論文 参考訳(メタデータ) (2023-01-23T10:56:12Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - Model-Contrastive Federated Learning [92.9075661456444]
フェデレーションラーニングにより、複数のパーティがローカルデータを伝達することなく、機械学習モデルを共同でトレーニングできます。
MOON:モデルコントラスト連合学習を提案します。
実験の結果,MOONは様々な画像分類タスクにおいて,他の最先端のフェデレーション学習アルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2021-03-30T11:16:57Z) - Fairness-aware Agnostic Federated Learning [47.26747955026486]
我々は、未知のテスト分布の課題に対処するために、公正に意識しない連邦学習フレームワーク(AgnosticFair)を開発した。
我々はカーネルリライジング関数を用いて、損失関数と公正制約の両方において各トレーニングサンプルにリライジング値を割り当てる。
構築されたモデルは、ローカルデータ配信の公平性を保証するため、ローカルサイトに直接適用することができる。
論文 参考訳(メタデータ) (2020-10-10T17:58:20Z) - Collaborative Fairness in Federated Learning [24.7378023761443]
深層学習のための新しい協調フェアフェデレーションラーニング(CFFL)フレームワークを提案する。
CFFLは参加者に異なるモデルに収束させ、予測性能を損なうことなく公正を達成する。
ベンチマークデータセットの実験では、CFFLは高い公正性を達成し、分散フレームワークに匹敵する精度を提供する。
論文 参考訳(メタデータ) (2020-08-27T14:39:09Z) - FR-Train: A Mutual Information-Based Approach to Fair and Robust
Training [33.385118640843416]
本稿では,公正でロバストなモデルトレーニングを行うFR-Trainを提案する。
我々の実験では、FR-Trainは、データ中毒の存在下での公正さと正確さのほとんど低下を示さなかった。
論文 参考訳(メタデータ) (2020-02-24T13:37:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。