論文の概要: Fairness-aware Agnostic Federated Learning
- arxiv url: http://arxiv.org/abs/2010.05057v1
- Date: Sat, 10 Oct 2020 17:58:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 23:28:43.132001
- Title: Fairness-aware Agnostic Federated Learning
- Title(参考訳): フェアネスを意識したAgnostic Federated Learning
- Authors: Wei Du, Depeng Xu, Xintao Wu and Hanghang Tong
- Abstract要約: 我々は、未知のテスト分布の課題に対処するために、公正に意識しない連邦学習フレームワーク(AgnosticFair)を開発した。
我々はカーネルリライジング関数を用いて、損失関数と公正制約の両方において各トレーニングサンプルにリライジング値を割り当てる。
構築されたモデルは、ローカルデータ配信の公平性を保証するため、ローカルサイトに直接適用することができる。
- 参考スコア(独自算出の注目度): 47.26747955026486
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning is an emerging framework that builds centralized machine
learning models with training data distributed across multiple devices. Most of
the previous works about federated learning focus on the privacy protection and
communication cost reduction. However, how to achieve fairness in federated
learning is under-explored and challenging especially when testing data
distribution is different from training distribution or even unknown.
Introducing simple fairness constraints on the centralized model cannot achieve
model fairness on unknown testing data. In this paper, we develop a
fairness-aware agnostic federated learning framework (AgnosticFair) to deal
with the challenge of unknown testing distribution. We use kernel reweighing
functions to assign a reweighing value on each training sample in both loss
function and fairness constraint. Therefore, the centralized model built from
AgnosticFair can achieve high accuracy and fairness guarantee on unknown
testing data. Moreover, the built model can be directly applied to local sites
as it guarantees fairness on local data distributions. To our best knowledge,
this is the first work to achieve fairness in federated learning. Experimental
results on two real datasets demonstrate the effectiveness in terms of both
utility and fairness under data shift scenarios.
- Abstract(参考訳): フェデレーション学習は、複数のデバイスに分散したトレーニングデータを備えた集中型機械学習モデルを構築する新興フレームワークである。
以前の研究のほとんどは、プライバシ保護と通信コスト削減に重点を置いている。
しかし、特にデータ分布のテストがトレーニング分布と異なるり、未知である場合、連合学習の公平性を達成するには、未熟で困難である。
集中型モデルにおける単純な公平性制約の導入は、未知のテストデータに対するモデルの公平性を達成することができない。
本稿では,未知のテスト分布の課題に対処するフェアネス対応の非依存型フェデレーション学習フレームワーク(AgnosticFair)を開発する。
損失関数とフェアネス制約の両方において,各トレーニングサンプルにリウィート値を割り当てるためにカーネルリウィート関数を使用する。
そのため、AgnosticFairから構築された集中型モデルは、未知のテストデータに対して高い精度と公平性を保証することができる。
さらに、構築されたモデルは、ローカルデータ分布の公平性を保証するため、ローカルサイトに直接適用することができる。
私たちの知る限りでは、フェデレーション学習における公平性を達成するための最初の取り組みである。
2つの実データセットに対する実験結果は、データシフトシナリオにおける実用性と公正性の両方の観点から有効性を示す。
関連論文リスト
- Dr. FERMI: A Stochastic Distributionally Robust Fair Empirical Risk
Minimization Framework [12.734559823650887]
分散シフトが存在する場合、公正な機械学習モデルはテストデータに対して不公平に振る舞うことがある。
既存のアルゴリズムはデータへの完全なアクセスを必要とし、小さなバッチを使用する場合には使用できない。
本稿では,因果グラフの知識を必要としない収束保証付き分布安定度フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-20T23:25:28Z) - FairVFL: A Fair Vertical Federated Learning Framework with Contrastive
Adversarial Learning [102.92349569788028]
本稿では,VFLモデルの公平性を改善するために,FairVFL( Fair vertical federated learning framework)を提案する。
FairVFLの中核となる考え方は、分散化された機能フィールドに基づいたサンプルの統一的で公正な表現を、プライバシ保護の方法で学習することである。
ユーザのプライバシ保護のために,サーバ内の統一表現からプライベート情報を除去する対向学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-07T11:43:32Z) - Fair and efficient contribution valuation for vertical federated
learning [49.50442779626123]
フェデレートラーニング(Federated Learning)は、データを共有することなく、分散データソース上で機械学習モデルをトレーニングするための一般的な技術である。
シェープリー値(Shapley value, SV)は、協調ゲーム理論から派生した、証明可能なフェアコントリビューション評価指標である。
本稿では,SVに基づく垂直結合シェープ値(VerFedSV)と呼ばれるコントリビューション評価指標を提案する。
論文 参考訳(メタデータ) (2022-01-07T19:57:15Z) - Improving Fairness via Federated Learning [14.231231094281362]
フェアネスを向上させるために,フェデレーション学習の価値を解析する理論的枠組みを提案する。
次に,FedAvgに基づくフェアラーニングアルゴリズムの性能トレードオフが,集中型データに基づいて訓練されたフェアクラシファイアよりも厳密に悪いことを示す。
これを解決するために,修正されたFedAvgプロトコルを用いて分散データに対するプライベートフェアラーニングアルゴリズムであるFedFBを提案する。
論文 参考訳(メタデータ) (2021-10-29T05:25:44Z) - Enforcing fairness in private federated learning via the modified method
of differential multipliers [1.3381749415517021]
差分プライバシーによるフェデレーション学習、あるいはプライベートフェデレーション学習は、ユーザのプライバシを尊重しながら機械学習モデルをトレーニングする戦略を提供する。
本稿では,ユーザのデータがデバイスを離れないプライベートフェデレーション学習において,グループフェアネスを強制するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-17T15:28:47Z) - Blockchain-based Trustworthy Federated Learning Architecture [16.062545221270337]
ブロックチェーンベースの信頼できるフェデレーション学習アーキテクチャを提案する。
まず、説明責任を実現するために、スマートコントラクトベースのデータモデル証明レジストリを設計する。
また、トレーニングデータの公平性を高めるために、重み付き公正データサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-16T06:13:58Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Fairness Constraints in Semi-supervised Learning [56.48626493765908]
我々は,最適化問題として定式化された,公平な半教師付き学習のためのフレームワークを開発する。
偏り・分散・雑音分解による半教師あり学習における識別源を理論的に分析する。
本手法は, 公平な半教師付き学習を達成でき, 公正な教師付き学習よりも精度と公平性のトレードオフが良好である。
論文 参考訳(メタデータ) (2020-09-14T04:25:59Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z) - FR-Train: A Mutual Information-Based Approach to Fair and Robust
Training [33.385118640843416]
本稿では,公正でロバストなモデルトレーニングを行うFR-Trainを提案する。
我々の実験では、FR-Trainは、データ中毒の存在下での公正さと正確さのほとんど低下を示さなかった。
論文 参考訳(メタデータ) (2020-02-24T13:37:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。