論文の概要: EFMVFL: An Efficient and Flexible Multi-party Vertical Federated
Learning without a Third Party
- arxiv url: http://arxiv.org/abs/2201.06244v1
- Date: Mon, 17 Jan 2022 07:06:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 18:35:07.336815
- Title: EFMVFL: An Efficient and Flexible Multi-party Vertical Federated
Learning without a Third Party
- Title(参考訳): EFMVFL: サードパーティなしの効率的かつ柔軟な多人数縦型学習
- Authors: Yimin Huang, Xinyu Feng, Wanwan Wang, Hao He, Yukun Wang, Ming Yao
- Abstract要約: フェデレートラーニング(Federated Learning)は、複数の参加者が、ローカルデータを開示することなく、共同でモデリングを行うことを可能にする。
EFMVFLと呼ばれるサードパーティを使わずに新しいVFLフレームワークを提案する。
私たちのフレームワークはセキュアで、より効率的で、複数の参加者に拡張が容易です。
- 参考スコア(独自算出の注目度): 7.873139977724476
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning allows multiple participants to conduct joint modeling
without disclosing their local data. Vertical federated learning (VFL) handles
the situation where participants share the same ID space and different feature
spaces. In most VFL frameworks, to protect the security and privacy of the
participants' local data, a third party is needed to generate homomorphic
encryption key pairs and perform decryption operations. In this way, the third
party is granted the right to decrypt information related to model parameters.
However, it isn't easy to find such a credible entity in the real world.
Existing methods for solving this problem are either communication-intensive or
unsuitable for multi-party scenarios. By combining secret sharing and
homomorphic encryption, we propose a novel VFL framework without a third party
called EFMVFL, which supports flexible expansion to multiple participants with
low communication overhead and is applicable to generalized linear models. We
give instantiations of our framework under logistic regression and Poisson
regression. Theoretical analysis and experiments show that our framework is
secure, more efficient, and easy to be extended to multiple participants.
- Abstract(参考訳): フェデレーション学習は、複数の参加者がローカルデータを開示することなく共同モデリングを行うことができる。
垂直連合学習(VFL)は、参加者が同じID空間と異なる特徴空間を共有する状況を扱う。
ほとんどのVFLフレームワークでは、参加者のローカルデータのセキュリティとプライバシを保護するために、同型暗号化キーペアを生成して復号操作を行うために第三者が必要である。
このようにして、第三者はモデルパラメータに関連する情報を復号する権利を与えられる。
しかし、そのような信頼できる実体を現実世界で見つけることは容易ではない。
この問題を解決する既存の方法は、コミュニケーション集約的か、あるいはマルチパーティのシナリオに適さない。
秘密共有と同型暗号化を組み合わせることで、EFMVFLと呼ばれるサードパーティを使わずに新しいVFLフレームワークを提案し、通信オーバーヘッドの少ない複数の参加者への柔軟な拡張をサポートし、一般化線形モデルに適用できる。
我々はロジスティック回帰とポアソン回帰の下でフレームワークのインスタンス化を行う。
理論的分析と実験は、我々のフレームワークが安全で、より効率的で、複数の参加者に拡張しやすいことを示している。
関連論文リスト
- Federated Transformer: Multi-Party Vertical Federated Learning on Practical Fuzzily Linked Data [27.073959939557362]
ファジィ識別子を持つ多人数ファジィVFLをサポートする新しいフレームワークFeTを紹介する。
実験の結果,FeTは50個までスケールした場合の精度で,ベースラインモデルを最大46%超えることがわかった。
2パーティファジィなVFL設定では、FeTは最先端のVFLモデルよりもパフォーマンスとプライバシが改善されている。
論文 参考訳(メタデータ) (2024-10-23T16:00:14Z) - Towards Active Participant-Centric Vertical Federated Learning: Some Representations May Be All You Need [0.0]
VFL(Vertical Federated Learning)に新たなシンプルなアプローチを導入する。
Active Participant-Centric VFLは、アクティブな参加者が非協力的な方法で推論を行うことを可能にする。
この方法は、教師なし表現学習と知識蒸留を統合し、従来のVFL法に匹敵する精度を実現する。
論文 参考訳(メタデータ) (2024-10-23T08:07:00Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - Quadratic Functional Encryption for Secure Training in Vertical
Federated Learning [26.188083606166806]
Vertical Federated Learning(VFL)は、複数のパーティに分散した設定において、機械学習(ML)モデルの協調トレーニングを可能にする。
VFLでは、ラベルは単一のパーティで利用可能であり、すべてのパーティのデータが結合された場合にのみ、完全なフィーチャーセットが形成される。
近年、Xuらはマルチインプット関数暗号を用いたVFLのためのセキュア勾配計算のためのFedVと呼ばれる新しいフレームワークを提案した。
論文 参考訳(メタデータ) (2023-05-15T05:31:35Z) - Hijack Vertical Federated Learning Models As One Party [43.095945038428404]
Vertical Federated Learning(VFL)は、コラボレーション者が分散形式で機械学習モデルを一緒に構築できるようにする、新たなパラダイムである。
既存のVFLフレームワークは、データのプライバシとセキュリティ保証を提供するために暗号化技術を使用している。
論文 参考訳(メタデータ) (2022-12-01T07:12:38Z) - BlindFL: Vertical Federated Machine Learning without Peeking into Your
Data [20.048695060411774]
垂直連合学習(VFL)は、さまざまな参加者のプライベートデータに基づいてMLモデルを構築する場合を記述している。
本稿では,VFLトレーニングと推論のための新しいフレームワークであるBlindFLを紹介する。
BlindFLは、堅牢なプライバシー保証を達成しつつ、多様なデータセットやモデルを効率的にサポートする。
論文 参考訳(メタデータ) (2022-06-16T07:26:50Z) - Efficient Split-Mix Federated Learning for On-Demand and In-Situ
Customization [107.72786199113183]
フェデレートラーニング(FL)は、複数の参加者が生データを共有せずに学習をコラボレーションするための分散ラーニングフレームワークを提供する。
本稿では, モデルサイズとロバスト性をその場でカスタマイズできる, 不均一な参加者のための新しいスプリット・ミクス・FL戦略を提案する。
論文 参考訳(メタデータ) (2022-03-18T04:58:34Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Secure Bilevel Asynchronous Vertical Federated Learning with Backward
Updating [159.48259714642447]
垂直拡張学習(VFL)は、多人数協調モデリングの要求とプライバシー漏洩の懸念により、注目を集めている。
我々は,vf$b2$を含む3つの新しいアルゴリズムを提案する新しいbftextlevel parallel architecture (vf$bfb2$)を提案する。
論文 参考訳(メタデータ) (2021-03-01T12:34:53Z) - FedH2L: Federated Learning with Model and Statistical Heterogeneity [75.61234545520611]
フェデレートラーニング(FL)は、分散参加者が個々のデータのプライバシを犠牲にすることなく、強力なグローバルモデルを集合的に学習することを可能にする。
我々はFedH2Lを導入し、これはモデルアーキテクチャに非依存であり、参加者間で異なるデータ分散に対して堅牢である。
パラメータや勾配を共有するアプローチとは対照的に、FedH2Lは相互蒸留に依存し、参加者間で共有シードセットの後方のみを分散的に交換する。
論文 参考訳(メタデータ) (2021-01-27T10:10:18Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。