論文の概要: Vertical Federated Learning without Revealing Intersection Membership
- arxiv url: http://arxiv.org/abs/2106.05508v1
- Date: Thu, 10 Jun 2021 05:26:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-11 14:37:16.364767
- Title: Vertical Federated Learning without Revealing Intersection Membership
- Title(参考訳): 交点メンバシップを明かすことなく垂直フェデレーション学習
- Authors: Jiankai Sun and Xin Yang and Yuanshun Yao and Aonan Zhang and Weihao
Gao and Junyuan Xie and Chong Wang
- Abstract要約: Vertical Federated Learning (vFL)は、同じデータエンティティの異なる属性を持つ複数のパーティが共同でモデルをトレーニングすることを可能にする。
通常はプライベート・セット・インターセクション(PSI)によって達成される。
本稿では,PSU(Private Set Union)に基づくvFLフレームワークを提案する。
- 参考スコア(独自算出の注目度): 30.612650238615267
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vertical Federated Learning (vFL) allows multiple parties that own different
attributes (e.g. features and labels) of the same data entity (e.g. a person)
to jointly train a model. To prepare the training data, vFL needs to identify
the common data entities shared by all parties. It is usually achieved by
Private Set Intersection (PSI) which identifies the intersection of training
samples from all parties by using personal identifiable information (e.g.
email) as sample IDs to align data instances. As a result, PSI would make
sample IDs of the intersection visible to all parties, and therefore each party
can know that the data entities shown in the intersection also appear in the
other parties, i.e. intersection membership. However, in many real-world
privacy-sensitive organizations, e.g. banks and hospitals, revealing membership
of their data entities is prohibited. In this paper, we propose a vFL framework
based on Private Set Union (PSU) that allows each party to keep sensitive
membership information to itself. Instead of identifying the intersection of
all training samples, our PSU protocol generates the union of samples as
training instances. In addition, we propose strategies to generate synthetic
features and labels to handle samples that belong to the union but not the
intersection. Through extensive experiments on two real-world datasets, we show
our framework can protect the privacy of the intersection membership while
maintaining the model utility.
- Abstract(参考訳): Vertical Federated Learning (vFL)は、異なる属性(例えば、複数の属性)を所有できる。
同じデータエンティティ(例えば、)の特徴とラベル。
モデルを共同で訓練する人。
トレーニングデータを作成するには、vFLはすべてのパーティが共有する共通データエンティティを識別する必要がある。
通常はプライベート・セット・インターセクション (PSI) によって達成され、個人識別可能な情報(例: 個人識別情報)を使用して、すべての当事者からのトレーニングサンプルの交点を特定する。
データインスタンスをアライメントするためのサンプルIDとして。
結果として、PSIは交差点のサンプルIDを全当事者に可視化するので、各当事者は交差点に表示されるデータエンティティが他の当事者にも現れることを知ることができる。
交差点の会員だ
しかし、多くの現実世界のプライバシーに敏感な組織では、例えば。
銀行や病院は データ・エンティティの会員登録を禁止しています
本稿では,PSU(Private Set Union)に基づくvFLフレームワークを提案する。
すべてのトレーニングサンプルの共通点を特定する代わりに、PSUプロトコルはトレーニングインスタンスとしてサンプルの結合を生成する。
さらに,交差点ではなく,連合に属するサンプルを扱うために,合成特徴とラベルを生成する戦略を提案する。
実世界の2つのデータセットに関する広範な実験を通して、我々のフレームワークはモデルユーティリティを維持しながら交差点メンバーシップのプライバシーを保護することができることを示す。
関連論文リスト
- Decoupled Vertical Federated Learning for Practical Training on
Vertically Partitioned Data [9.84489449520821]
本稿では,垂直的フェデレート学習(VFL)に対するブロックワイズ学習手法を提案する。
VFLでは、ホストクライアントがエンティティごとにデータラベルを所有し、すべてのゲストクライアントから中間的なローカル表現に基づいて最終表現を学習する。
分割ニューラルネットワークをトレーニングするためにDVFLを実装し、様々な分類データセット上でモデル性能がVFLに匹敵することを示す。
論文 参考訳(メタデータ) (2024-03-06T17:23:28Z) - Benchmarking FedAvg and FedCurv for Image Classification Tasks [1.376408511310322]
本稿では,同じフェデレーションネットワークにおけるデータの統計的不均一性の問題に焦点をあてる。
FedAvg、FedProx、Federated Curvature(FedCurv)など、いくつかのフェデレートラーニングアルゴリズムがすでに提案されている。
この研究の副産物として、FLコミュニティからのさらなる比較を容易にするために使用したデータセットの非IIDバージョンをリリースします。
論文 参考訳(メタデータ) (2023-03-31T10:13:01Z) - Federated Semi-Supervised Learning with Annotation Heterogeneity [57.12560313403097]
Heterogenely Annotated Semi-Supervised LEarning (HASSLE) という新しいフレームワークを提案する。
ラベル付きデータとラベルなしデータで個別にトレーニングされた2つのモデルを持つデュアルモデルフレームワークである。
デュアルモデルは、異なるクライアントにわたる両方のタイプのデータから暗黙的に学習することができるが、各デュアルモデルは、単一のタイプのデータに対してのみローカルにトレーニングされる。
論文 参考訳(メタデータ) (2023-03-04T16:04:49Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Subject Membership Inference Attacks in Federated Learning [4.377743737361996]
対象者推定のためのブラックボックス攻撃を2つ提案する。
正確なトレーニング記録にアクセスしなくても、攻撃は極めて強力なものだと考えています。
また、この脅威を緩和する上での差別化プライバシの有効性についても検討する。
論文 参考訳(メタデータ) (2022-06-07T14:06:12Z) - Factorized-FL: Agnostic Personalized Federated Learning with Kernel
Factorization & Similarity Matching [70.95184015412798]
現実世界のフェデレートされた学習シナリオでは、参加者は他のクライアントのものと互換性のない、独自のパーソナライズされたラベルを持つことができる。
本研究では,ラベル・タスク・ヘテロジニアス・フェデレーション・ラーニング・セッティングに効果的に取り組むためのFacterized-FLを提案する。
本手法はラベルとドメインの不均一な設定の両方で広範に検証し、最先端の個人化フェデレーション学習法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-02-01T08:00:59Z) - CaPC Learning: Confidential and Private Collaborative Learning [30.403853588224987]
本研究では,機密性とプライバシの両方を協調的に達成する最初の手法である,機密・私的協調学習(CaPC)を導入する。
参加者がトレーニングセットに明示的に参加したり、中央モデルをトレーニングする必要なしに、CaPCがコラボレーションを可能にする方法を紹介します。
論文 参考訳(メタデータ) (2021-02-09T23:50:24Z) - FedH2L: Federated Learning with Model and Statistical Heterogeneity [75.61234545520611]
フェデレートラーニング(FL)は、分散参加者が個々のデータのプライバシを犠牲にすることなく、強力なグローバルモデルを集合的に学習することを可能にする。
我々はFedH2Lを導入し、これはモデルアーキテクチャに非依存であり、参加者間で異なるデータ分散に対して堅牢である。
パラメータや勾配を共有するアプローチとは対照的に、FedH2Lは相互蒸留に依存し、参加者間で共有シードセットの後方のみを分散的に交換する。
論文 参考訳(メタデータ) (2021-01-27T10:10:18Z) - Federated Unsupervised Representation Learning [56.715917111878106]
フェデレート非教師表現学習(FURL)と呼ばれるフェデレーション学習における新しい問題を定式化し、教師なしの共通表現モデルを学習する。
FedCAは2つの主要なモジュールで構成されている: 辞書モジュールは、各クライアントからのサンプルの表現を集約し、表現空間の整合性のためにすべてのクライアントと共有し、アライメントモジュールは、公開データに基づいてトレーニングされたベースモデル上で各クライアントの表現を整合させる。
論文 参考訳(メタデータ) (2020-10-18T13:28:30Z) - Federated Semi-Supervised Learning with Inter-Client Consistency &
Disjoint Learning [78.88007892742438]
ラベル付きデータの位置に基づくFSSL(Federated Semi-Supervised Learning)の2つの重要なシナリオについて検討する。
フェデレートマッチング(FedMatch)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-06-22T09:43:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。