論文の概要: FedV: Privacy-Preserving Federated Learning over Vertically Partitioned
Data
- arxiv url: http://arxiv.org/abs/2103.03918v1
- Date: Fri, 5 Mar 2021 19:59:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 15:52:46.318860
- Title: FedV: Privacy-Preserving Federated Learning over Vertically Partitioned
Data
- Title(参考訳): FedV: 垂直分割データに対するプライバシー保護フェデレーション学習
- Authors: Runhua Xu, Nathalie Baracaldo, Yi Zhou, Ali Anwar, James Joshi, Heiko
Ludwig
- Abstract要約: 複数当事者間の機械学習(ML)モデルの共同トレーニングを可能にするために、フェデレーションラーニング(FL)が提案されている。
FedVは、広く使用されているいくつかのMLモデルの垂直設定におけるグラデーション計算をセキュアにするためのフレームワークである。
トレーニング時間の10%から70%、データ転送の80%から90%を、最先端のアプローチで削減できることを示した。
- 参考スコア(独自算出の注目度): 12.815996963583641
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated learning (FL) has been proposed to allow collaborative training of
machine learning (ML) models among multiple parties where each party can keep
its data private. In this paradigm, only model updates, such as model weights
or gradients, are shared. Many existing approaches have focused on horizontal
FL, where each party has the entire feature set and labels in the training data
set. However, many real scenarios follow a vertically-partitioned FL setup,
where a complete feature set is formed only when all the datasets from the
parties are combined, and the labels are only available to a single party.
Privacy-preserving vertical FL is challenging because complete sets of labels
and features are not owned by one entity. Existing approaches for vertical FL
require multiple peer-to-peer communications among parties, leading to lengthy
training times, and are restricted to (approximated) linear models and just two
parties. To close this gap, we propose FedV, a framework for secure gradient
computation in vertical settings for several widely used ML models such as
linear models, logistic regression, and support vector machines. FedV removes
the need for peer-to-peer communication among parties by using functional
encryption schemes; this allows FedV to achieve faster training times. It also
works for larger and changing sets of parties. We empirically demonstrate the
applicability for multiple types of ML models and show a reduction of 10%-70%
of training time and 80% to 90% in data transfer with respect to the
state-of-the-art approaches.
- Abstract(参考訳): フェデレーションラーニング(Federated Learning, FFL)は、複数のパーティ間で機械学習(ML)モデルの協調トレーニングを可能にするために提案されている。
このパラダイムでは、モデルウェイトや勾配のようなモデル更新のみが共有されます。
既存のアプローチの多くは水平flに注目しており、各パーティがトレーニングデータセット内の機能セットとラベルをすべて持っている。
しかし、多くの実際のシナリオは、垂直分割されたFLセットアップに従います。完全な機能セットは、パーティーのすべてのデータセットが結合された場合にのみ形成され、ラベルは単一のパーティーでのみ利用できます。
ラベルと機能の完全なセットが1つのエンティティによって所有されていないため、プライバシー保護垂直FLは困難です。
既存の垂直FLのアプローチでは、パーティ間で複数のピアツーピア通信が必要であり、長いトレーニング時間をもたらし、(近似された)線形モデルと2つのパーティに制限される。
このギャップを埋めるために、線形モデルやロジスティック回帰、サポートベクターマシンなど、広く使われているMLモデルの垂直設定における安全な勾配計算のためのフレームワークであるFedVを提案する。
FedVは、機能的な暗号化スキームを使用することで、当事者間のピアツーピア通信の必要性を排除します。
また、より大きく変化したパーティーでも機能する。
本研究では,複数種類のmlモデルに適用可能なことを示すとともに,トレーニング時間の10%~70%,データ転送の80%から90%の削減効果を示す。
関連論文リスト
- Privacy-preserving gradient-based fair federated learning [0.0]
フェデレートラーニング(FL)スキームは、複数の参加者が基盤となるデータを共有することなく、ニューラルネットワークを協調的にトレーニングすることを可能にする。
本稿では,本研究の成果に基づいて,新しい,公正かつプライバシ保護のFLスキームを提案する。
論文 参考訳(メタデータ) (2024-07-18T19:56:39Z) - MultiConfederated Learning: Inclusive Non-IID Data handling with Decentralized Federated Learning [1.2726316791083532]
Federated Learning (FL) は、機密性のある臨床機械学習のようなユースケースを可能にするための、顕著なプライバシ保護技術として登場した。
FLはデータを所有するリモートデバイスによってトレーニングされたモデルを集約することで動作する。
非IIDデータを扱うために設計された分散FLフレームワークであるMultiConfederated Learningを提案する。
論文 参考訳(メタデータ) (2024-04-20T16:38:26Z) - Towards More Suitable Personalization in Federated Learning via
Decentralized Partial Model Training [67.67045085186797]
既存のシステムのほとんどは、中央のFLサーバが失敗した場合、大きな通信負荷に直面しなければならない。
共有パラメータと個人パラメータを交互に更新することで、ディープモデルの「右」をパーソナライズする。
共有パラメータアグリゲーションプロセスをさらに促進するために、ローカルシャープネス最小化を統合するDFedを提案する。
論文 参考訳(メタデータ) (2023-05-24T13:52:18Z) - Quadratic Functional Encryption for Secure Training in Vertical
Federated Learning [26.188083606166806]
Vertical Federated Learning(VFL)は、複数のパーティに分散した設定において、機械学習(ML)モデルの協調トレーニングを可能にする。
VFLでは、ラベルは単一のパーティで利用可能であり、すべてのパーティのデータが結合された場合にのみ、完全なフィーチャーセットが形成される。
近年、Xuらはマルチインプット関数暗号を用いたVFLのためのセキュア勾配計算のためのFedVと呼ばれる新しいフレームワークを提案した。
論文 参考訳(メタデータ) (2023-05-15T05:31:35Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Federated Learning from Only Unlabeled Data with
Class-Conditional-Sharing Clients [98.22390453672499]
Supervised Federated Learning (FL)は、複数のクライアントがラベル付きデータを共有せずにトレーニングされたモデルを共有することを可能にする。
本研究では,教師なし学習(FedUL)のフェデレーションを提案し,各クライアントのラベル付きデータにラベル付きデータを変換する。
論文 参考訳(メタデータ) (2022-04-07T09:12:00Z) - A Vertical Federated Learning Framework for Horizontally Partitioned
Labels [12.433809611989155]
既存の垂直連合学習法の多くは、少なくとも一方が全てのデータサンプルのラベルの完全なセットを保持しているという強い仮定を持っている。
既存の垂直統合学習手法は部分ラベルしか利用できないため、エンドツーエンドのバックプロパゲーションにおいてモデル更新が不十分になる可能性がある。
本稿では,すべての水平分割ラベルをフル活用してニューラルネットワークをプライバシ保護でトレーニングする,Cascade Vertical Federated Learning (CVFL) という,新しい縦型フェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-18T11:10:11Z) - FedH2L: Federated Learning with Model and Statistical Heterogeneity [75.61234545520611]
フェデレートラーニング(FL)は、分散参加者が個々のデータのプライバシを犠牲にすることなく、強力なグローバルモデルを集合的に学習することを可能にする。
我々はFedH2Lを導入し、これはモデルアーキテクチャに非依存であり、参加者間で異なるデータ分散に対して堅牢である。
パラメータや勾配を共有するアプローチとは対照的に、FedH2Lは相互蒸留に依存し、参加者間で共有シードセットの後方のみを分散的に交換する。
論文 参考訳(メタデータ) (2021-01-27T10:10:18Z) - FedCVT: Semi-supervised Vertical Federated Learning with Cross-view Training [9.638604434238882]
フェデレート・クロスビュー・トレーニング(Federated Cross-view Training, FedCVT)は、縦型フェデレーション学習モデルの性能を向上させる半教師付き学習手法である。
FedCVTは独自のデータとモデルパラメータを共有する必要はなく、データのプライバシを保存する。
論文 参考訳(メタデータ) (2020-08-25T06:20:31Z) - Ensemble Distillation for Robust Model Fusion in Federated Learning [72.61259487233214]
Federated Learning(FL)は、多くのデバイスが機械学習モデルを協調的にトレーニングする機械学習環境である。
現在のトレーニングスキームのほとんどでは、サーバモデルのパラメータと更新されたパラメータをクライアント側から平均化することで、中央モデルを洗練します。
本研究では,モデル融合のためのアンサンブル蒸留法を提案する。
論文 参考訳(メタデータ) (2020-06-12T14:49:47Z) - UVeQFed: Universal Vector Quantization for Federated Learning [179.06583469293386]
フェデレートラーニング(FL)は、ユーザがプライベートラベル付きデータを共有することなく、そのような学習モデルをトレーニングする、新たなアプローチである。
FLでは、各ユーザが学習モデルのコピーをローカルにトレーニングする。その後、サーバは個々の更新を収集し、それらをグローバルモデルに集約する。
普遍ベクトル量子化法をFLと組み合わせることで、訓練されたモデルの圧縮が最小歪みのみを誘導する分散トレーニングシステムが得られることを示す。
論文 参考訳(メタデータ) (2020-06-05T07:10:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。