論文の概要: vFedSec: Efficient Secure Aggregation for Vertical Federated Learning
via Secure Layer
- arxiv url: http://arxiv.org/abs/2305.16794v1
- Date: Fri, 26 May 2023 10:17:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-29 15:52:42.720770
- Title: vFedSec: Efficient Secure Aggregation for Vertical Federated Learning
via Secure Layer
- Title(参考訳): vfedsec: secure layerによる垂直フェデレーション学習のための効率的なセキュアアグリゲーション
- Authors: Xinchi Qiu, Heng Pan, Wanru Zhao, Chenyang Ma, Pedro P.B. Gusmao,
Nicholas D. Lane
- Abstract要約: vFedSecは、最先端のセキュリティモジュールをセキュアなアグリゲーションに使用して、垂直FLを安全かつ効率的にトレーニングするための革新的なSecure Layerを備えた、新しい設計である。
提案手法は,広く採用されている同型暗号(HE)法と比較して9.1e2 3.8e4の高速化が可能である。
- 参考スコア(独自算出の注目度): 10.295508659999783
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most work in privacy-preserving federated learning (FL) has been focusing on
horizontally partitioned datasets where clients share the same sets of features
and can train complete models independently. However, in many interesting
problems, individual data points are scattered across different
clients/organizations in a vertical setting. Solutions for this type of FL
require the exchange of intermediate outputs and gradients between
participants, posing a potential risk of privacy leakage when privacy and
security concerns are not considered. In this work, we present vFedSec - a
novel design with an innovative Secure Layer for training vertical FL securely
and efficiently using state-of-the-art security modules in secure aggregation.
We theoretically demonstrate that our method does not impact the training
performance while protecting private data effectively. Empirically results also
show its applicability with extensive experiments that our design can achieve
the protection with negligible computation and communication overhead. Also,
our method can obtain 9.1e2 ~ 3.8e4 speedup compared to widely-adopted
homomorphic encryption (HE) method.
- Abstract(参考訳): プライバシ保護連合学習(fl)におけるほとんどの作業は、クライアントが同じ機能セットを共有し、完全なモデルを独立してトレーニングできる水平分割データセットに注目している。
しかし、多くの興味深い問題では、個々のデータポイントが異なるクライアント/組織に垂直に分散している。
この種のFLの解決策には、中間出力の交換と参加者間の勾配が必要であり、プライバシーやセキュリティの懸念が考慮されていない場合、プライバシー漏洩の危険性がある。
本稿では,垂直FLをセキュアかつ効率的に,最先端のセキュリティモジュールを用いてセキュアアグリゲーションをトレーニングするための,革新的なSecure Layerを備えた新しい設計であるvFedSecを紹介する。
提案手法は,プライベートデータを効果的に保護しながら,トレーニング性能に影響を及ぼさないことを理論的に実証する。
実験結果から,我々の設計が無視できる計算量と通信オーバーヘッドで保護できることを示す広範な実験で,その適用性も示された。
また,提案手法では,広く採用されている同型暗号(HE)法と比較して,9.1e2〜3.8e4の高速化が可能である。
関連論文リスト
- TPFL: A Trustworthy Personalized Federated Learning Framework via Subjective Logic [13.079535924498977]
フェデレートラーニング(FL)は、データプライバシを保持しながら、分散クライアント間で協調的なモデルトレーニングを可能にする。
ほとんどのFLアプローチは、プライバシ保護に重点を置いているが、信頼性が不可欠であるシナリオでは不足している。
主観的論理を用いた分類タスク用に設計された信頼に足る個人化フェデレーション学習フレームワークを紹介する。
論文 参考訳(メタデータ) (2024-10-16T07:33:29Z) - Fast-FedUL: A Training-Free Federated Unlearning with Provable Skew Resilience [26.647028483763137]
我々は、Fast-FedULを紹介した。Fast-FedULは、フェデレートラーニング(FL)のための調整済みの未学習手法である。
訓練されたモデルからターゲットクライアントの影響を体系的に除去するアルゴリズムを開発した。
実験結果から、Fast-FedULはターゲットクライアントのほとんどすべてのトレースを効果的に削除し、未ターゲットクライアントの知識を維持していることがわかった。
論文 参考訳(メタデータ) (2024-05-28T10:51:38Z) - Efficient Vertical Federated Learning with Secure Aggregation [10.295508659999783]
本稿では,安全アグリゲーションのための最先端セキュリティモジュールを用いて,垂直FLを安全かつ効率的に訓練するための新しい設計を提案する。
我々は,同相暗号 (HE) と比較して9.1e2 3.8e4 の高速化を図りながら,本手法がトレーニング性能に影響を及ぼさないことを実証的に実証した。
論文 参考訳(メタデータ) (2023-05-18T18:08:36Z) - FedDBL: Communication and Data Efficient Federated Deep-Broad Learning
for Histopathological Tissue Classification [65.7405397206767]
本稿では,FedDBL(Federated Deep-Broad Learning)を提案する。
FedDBLは1ラウンドの通信と限られたトレーニングサンプルで競合相手をはるかに上回り、マルチラウンドの通信で同等のパフォーマンスを達成している。
異なるクライアント間でのデータやディープモデルを共有しないため、プライバシ問題は十分に解決されており、モデルのセキュリティはモデル反転攻撃のリスクなしに保証される。
論文 参考訳(メタデータ) (2023-02-24T14:27:41Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Improving Privacy-Preserving Vertical Federated Learning by Efficient Communication with ADMM [62.62684911017472]
フェデレートラーニング(FL)により、デバイスは共有モデルを共同でトレーニングし、トレーニングデータをプライバシ目的でローカルに保つことができる。
マルチヘッド(VIM)を備えたVFLフレームワークを導入し、各クライアントの別々のコントリビューションを考慮に入れます。
VIMは最先端技術に比べて性能が著しく向上し、収束が速い。
論文 参考訳(メタデータ) (2022-07-20T23:14:33Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - CRFL: Certifiably Robust Federated Learning against Backdoor Attacks [59.61565692464579]
本稿では,第1の汎用フレームワークであるCertifiably Robust Federated Learning (CRFL) を用いて,バックドアに対する堅牢なFLモデルをトレーニングする。
提案手法は, モデルパラメータのクリッピングと平滑化を利用して大域的モデル平滑化を制御する。
論文 参考訳(メタデータ) (2021-06-15T16:50:54Z) - H-FL: A Hierarchical Communication-Efficient and Privacy-Protected
Architecture for Federated Learning [0.2741266294612776]
本稿では,この課題に対処するため,階層型連合学習(H-FL)と呼ばれる新しい枠組みを提案する。
トレーニングデータの統計的不均一性によるモデル性能の劣化を考慮すると,実行時分布再構成戦略を考案する。
さらに,H-FLに組み込まれた圧縮補正機構を設計し,モデル性能を犠牲にすることなく通信オーバーヘッドを低減する。
論文 参考訳(メタデータ) (2021-06-01T07:15:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。