論文の概要: Training Fair Models in Federated Learning without Data Privacy Infringement
- arxiv url: http://arxiv.org/abs/2109.05662v2
- Date: Fri, 01 Nov 2024 19:31:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-06 14:57:41.050334
- Title: Training Fair Models in Federated Learning without Data Privacy Infringement
- Title(参考訳): データプライバシ侵害のないフェデレーション学習における公正モデルトレーニング
- Authors: Xin Che, Jingdi Hu, Zirui Zhou, Yong Zhang, Lingyang Chu,
- Abstract要約: 我々はFedFairを開発した。FedFairはよく設計されたフェデレート学習フレームワークで、データプライバシーの侵害なしに高いパフォーマンスで公正なモデルをトレーニングできる。
実世界の3つのデータセットに対する実験により,本手法の優れた公正モデルトレーニング性能が示された。
- 参考スコア(独自算出の注目度): 14.099679834528663
- License:
- Abstract: Training fair machine learning models becomes more and more important. As many powerful models are trained by collaboration among multiple parties, each holding some sensitive data, it is natural to explore the feasibility of training fair models in federated learning so that the fairness of trained models, the data privacy of clients, and the collaboration between clients can be fully respected simultaneously. However, the task of training fair models in federated learning is challenging, since it is far from trivial to estimate the fairness of a model without knowing the private data of the participating parties, which is often constrained by privacy requirements in federated learning. In this paper, we first propose a federated estimation method to accurately estimate the fairness of a model without infringing the data privacy of any party. Then, we use the fairness estimation to formulate a novel problem of training fair models in federated learning. We develop FedFair, a well-designed federated learning framework, which can successfully train a fair model with high performance without data privacy infringement. Our extensive experiments on three real-world data sets demonstrate the excellent fair model training performance of our method.
- Abstract(参考訳): 公正な機械学習モデルのトレーニングがますます重要になる。
多くの強力なモデルが、複数のパーティ間のコラボレーションによってトレーニングされ、それぞれが機密データを持っているため、フェデレートラーニングにおける公正なモデルのトレーニングの実現可能性を探ることで、トレーニングされたモデルの公正性、クライアントのデータプライバシ、クライアント間のコラボレーションを同時に完全に尊重することが可能になります。
しかし、フェデレートラーニングにおける公正なモデルのトレーニングの課題は、フェデレーションラーニングにおけるプライバシ要件に制約される、参加者のプライベートデータを知ることなく、モデルの公正さを見積もることは、決して簡単ではないため、難しい。
本稿ではまず,データのプライバシを侵害することなく,モデルの公正性を正確に推定するフェデレーション推定手法を提案する。
次に,フェアネス推定を用いて,フェデレート学習におけるフェアモデルトレーニングの新たな問題を定式化する。
我々はFedFairを開発した。FedFairはよく設計されたフェデレート学習フレームワークで、データプライバシーの侵害なしに高いパフォーマンスで公正なモデルをトレーニングできる。
実世界の3つのデータセットに対する広範な実験により,本手法の優れた公正モデルトレーニング性能が示された。
関連論文リスト
- Personalized Federated Learning with Mixture of Models for Adaptive Prediction and Model Fine-Tuning [22.705411388403036]
本稿では,新しい個人化フェデレーション学習アルゴリズムを提案する。
各クライアントは、局所的に微調整されたモデルと複数のフェデレートされたモデルを組み合わせることでパーソナライズされたモデルを構築する。
実データセットに関する理論的解析と実験は、このアプローチの有効性を裏付けるものである。
論文 参考訳(メタデータ) (2024-10-28T21:20:51Z) - Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - Provable Fairness for Neural Network Models using Formal Verification [10.90121002896312]
本稿では,ニューラルネットワークモデルの特性を検証する形式的手法を用いて,公平性を向上する手法を提案する。
適切なトレーニングによって、AUCスコアの1%未満のコストで、平均65.4%の不公平さを削減できることを示す。
論文 参考訳(メタデータ) (2022-12-16T16:54:37Z) - Federated Pruning: Improving Neural Network Efficiency with Federated
Learning [24.36174705715827]
フェデレーテッド・プルーニング(Federated Pruning)は、フェデレーテッド・セッティングの下で縮小モデルのトレーニングを行う。
異なる刈り取り方式を探索し,提案手法の有効性の実証的証拠を提供する。
論文 参考訳(メタデータ) (2022-09-14T00:48:37Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - Decentralized Federated Learning Preserves Model and Data Privacy [77.454688257702]
我々は、訓練されたモデル間で知識を共有することができる、完全に分散化されたアプローチを提案する。
生徒は、合成された入力データを通じて教師の出力を訓練する。
その結果,教師が学習した未学習学生モデルが,教師と同等のF1スコアに達することがわかった。
論文 参考訳(メタデータ) (2021-02-01T14:38:54Z) - An Efficiency-boosting Client Selection Scheme for Federated Learning
with Fairness Guarantee [36.07970788489]
フェデレートラーニング(Federated Learning)は、クライアントがモデルトレーニングをローカルに実行できるようにすることによって、プライバシ問題に対処する新たなパラダイムである。
クライアント選択ポリシーは、トレーニング効率、最終モデルの質、公平性の観点から、FLプロセスにとって重要なものです。
本稿では、Lyapunov最適化問題として保証されたクライアント選択の公平性をモデル化し、C2MABに基づくモデル交換時間推定法を提案する。
論文 参考訳(メタデータ) (2020-11-03T15:27:02Z) - Fairness-aware Agnostic Federated Learning [47.26747955026486]
我々は、未知のテスト分布の課題に対処するために、公正に意識しない連邦学習フレームワーク(AgnosticFair)を開発した。
我々はカーネルリライジング関数を用いて、損失関数と公正制約の両方において各トレーニングサンプルにリライジング値を割り当てる。
構築されたモデルは、ローカルデータ配信の公平性を保証するため、ローカルサイトに直接適用することができる。
論文 参考訳(メタデータ) (2020-10-10T17:58:20Z) - Federated Mutual Learning [65.46254760557073]
Federated Mutual Leaning (FML)は、クライアントが汎用モデルとパーソナライズされたモデルを独立してトレーニングすることを可能にする。
実験により、FMLは一般的なフェデレート学習環境よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2020-06-27T09:35:03Z) - Federated Residual Learning [53.77128418049985]
クライアントはローカルモデルを個別に訓練し、サーバ側で共有するモデルと共同で予測を行う。
この新しいフェデレートされた学習フレームワークを使用することで、統合トレーニングが提供するパフォーマンス上のメリットをすべて享受しながら、中央共有モデルの複雑さを最小限にすることができる。
論文 参考訳(メタデータ) (2020-03-28T19:55:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。