論文の概要: FairVFL: A Fair Vertical Federated Learning Framework with Contrastive
Adversarial Learning
- arxiv url: http://arxiv.org/abs/2206.03200v2
- Date: Mon, 31 Oct 2022 09:18:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 17:32:16.455224
- Title: FairVFL: A Fair Vertical Federated Learning Framework with Contrastive
Adversarial Learning
- Title(参考訳): FairVFL: 対立的対人学習を伴う公正な垂直的フェデレーション学習フレームワーク
- Authors: Tao Qi, Fangzhao Wu, Chuhan Wu, Lingjuan Lyu, Tong Xu, Zhongliang
Yang, Yongfeng Huang, Xing Xie
- Abstract要約: 本稿では,VFLモデルの公平性を改善するために,FairVFL( Fair vertical federated learning framework)を提案する。
FairVFLの中核となる考え方は、分散化された機能フィールドに基づいたサンプルの統一的で公正な表現を、プライバシ保護の方法で学習することである。
ユーザのプライバシ保護のために,サーバ内の統一表現からプライベート情報を除去する対向学習手法を提案する。
- 参考スコア(独自算出の注目度): 102.92349569788028
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vertical federated learning (VFL) is a privacy-preserving machine learning
paradigm that can learn models from features distributed on different platforms
in a privacy-preserving way. Since in real-world applications the data may
contain bias on fairness-sensitive features (e.g., gender), VFL models may
inherit bias from training data and become unfair for some user groups.
However, existing fair machine learning methods usually rely on the centralized
storage of fairness-sensitive features to achieve model fairness, which are
usually inapplicable in federated scenarios. In this paper, we propose a fair
vertical federated learning framework (FairVFL), which can improve the fairness
of VFL models. The core idea of FairVFL is to learn unified and fair
representations of samples based on the decentralized feature fields in a
privacy-preserving way. Specifically, each platform with fairness-insensitive
features first learns local data representations from local features. Then,
these local representations are uploaded to a server and aggregated into a
unified representation for the target task. In order to learn a fair unified
representation, we send it to each platform storing fairness-sensitive features
and apply adversarial learning to remove bias from the unified representation
inherited from the biased data. Moreover, for protecting user privacy, we
further propose a contrastive adversarial learning method to remove private
information from the unified representation in server before sending it to the
platforms keeping fairness-sensitive features. Experiments on three real-world
datasets validate that our method can effectively improve model fairness with
user privacy well-protected.
- Abstract(参考訳): Vertical Federated Learning(VFL)は、プライバシを保存する機械学習パラダイムであり、プライバシを保存する方法で、さまざまなプラットフォームに分散された機能からモデルを学ぶことができる。
実世界のアプリケーションでは、データは公平性に敏感な特徴(例えば性別)のバイアスを含む可能性があるため、VFLモデルはトレーニングデータからのバイアスを継承し、一部のユーザーグループでは不公平になる。
しかし、既存の公正な機械学習手法は通常、モデルフェアネスを達成するためにフェアネスに敏感な機能の集中ストレージに依存している。
本稿では,VFLモデルの公平性を向上させるための,公平な垂直連合学習フレームワーク(FairVFL)を提案する。
FairVFLの中核となる考え方は、分散化された機能フィールドに基づいたサンプルの統一的で公正な表現を、プライバシ保護の方法で学習することだ。
具体的には、公平性に敏感な各プラットフォームは、まずローカル機能からローカルデータ表現を学習する。
その後、これらのローカル表現はサーバにアップロードされ、ターゲットタスクの統一表現に集約される。
公平な統一表現を学習するために、公平さに敏感な特徴を格納した各プラットフォームに送信し、バイアス付きデータから継承された統一表現からバイアスを取り除くために逆学習を適用する。
さらに,ユーザプライバシを保護するために,サーバの統一表現からプライベート情報をフェアネスに敏感な機能を持つプラットフォームに送信する前に削除する,対照的な対向学習手法を提案する。
実世界の3つのデータセットの実験により,ユーザのプライバシをよく保護したモデルフェアネスを効果的に改善できることを確認した。
関連論文リスト
- Decoupled Vertical Federated Learning for Practical Training on
Vertically Partitioned Data [9.84489449520821]
本稿では,垂直的フェデレート学習(VFL)に対するブロックワイズ学習手法を提案する。
VFLでは、ホストクライアントがエンティティごとにデータラベルを所有し、すべてのゲストクライアントから中間的なローカル表現に基づいて最終表現を学習する。
分割ニューラルネットワークをトレーニングするためにDVFLを実装し、様々な分類データセット上でモデル性能がVFLに匹敵することを示す。
論文 参考訳(メタデータ) (2024-03-06T17:23:28Z) - Fair Differentially Private Federated Learning Framework [0.0]
Federated Learning(FL)は、参加者が個々のデータセットを共有することなく、協力し、共有モデルをトレーニングすることのできる、分散機械学習戦略である。
FLではプライバシと公平性が重要な考慮事項である。
本稿では、検証データなしで公正なグローバルモデルを作成し、グローバルなプライベートディファレンシャルモデルを作成するという課題に対処する枠組みを提案する。
論文 参考訳(メタデータ) (2023-05-23T09:58:48Z) - Can Public Large Language Models Help Private Cross-device Federated Learning? [58.05449579773249]
言語モデルのプライベート・フェデレーション・ラーニング(FL)について検討する。
公開データは、大小両方の言語モデルのプライバシーとユーティリティのトレードオフを改善するために使われてきた。
提案手法は,プライベートなデータ分布に近い公開データをサンプリングするための理論的基盤を持つ新しい分布マッチングアルゴリズムである。
論文 参考訳(メタデータ) (2023-05-20T07:55:58Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Federated Zero-Shot Learning for Visual Recognition [55.65879596326147]
本稿では,Federated Zero-Shot Learning FedZSLフレームワークを提案する。
FedZSLは、エッジデバイス上の分散データから中心的なモデルを学ぶ。
FedZSLの有効性と堅牢性は、3つのゼロショットベンチマークデータセットで実施された広範な実験によって実証された。
論文 参考訳(メタデータ) (2022-09-05T14:49:34Z) - FairFed: Enabling Group Fairness in Federated Learning [22.913999279079878]
フェデレーテッド・ラーニングは、複数のパーティで機械学習モデルを学習するための有望なソリューションと見なされている。
フェアネスを意識したアグリゲーション手法によりグループフェアネスを高める新しいアルゴリズムであるFairFedを提案する。
提案手法は,高度の不均一な属性分布の下で,最先端の公正な学習フレームワークよりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-02T17:55:20Z) - Enforcing fairness in private federated learning via the modified method
of differential multipliers [1.3381749415517021]
差分プライバシーによるフェデレーション学習、あるいはプライベートフェデレーション学習は、ユーザのプライバシを尊重しながら機械学習モデルをトレーニングする戦略を提供する。
本稿では,ユーザのデータがデバイスを離れないプライベートフェデレーション学習において,グループフェアネスを強制するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-17T15:28:47Z) - Fairness-aware Agnostic Federated Learning [47.26747955026486]
我々は、未知のテスト分布の課題に対処するために、公正に意識しない連邦学習フレームワーク(AgnosticFair)を開発した。
我々はカーネルリライジング関数を用いて、損失関数と公正制約の両方において各トレーニングサンプルにリライジング値を割り当てる。
構築されたモデルは、ローカルデータ配信の公平性を保証するため、ローカルサイトに直接適用することができる。
論文 参考訳(メタデータ) (2020-10-10T17:58:20Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。