論文の概要: Efficient Vertical Federated Learning with Secure Aggregation
- arxiv url: http://arxiv.org/abs/2305.11236v1
- Date: Thu, 18 May 2023 18:08:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-22 17:37:25.098083
- Title: Efficient Vertical Federated Learning with Secure Aggregation
- Title(参考訳): セキュアアグリゲーションを用いた高効率垂直フェデレーション学習
- Authors: Xinchi Qiu, Heng Pan, Wanru Zhao, Chenyang Ma, Pedro Porto Buarque de
Gusm\~ao, Nicholas D. Lane
- Abstract要約: 本稿では,安全アグリゲーションのための最先端セキュリティモジュールを用いて,垂直FLを安全かつ効率的に訓練するための新しい設計を提案する。
我々は,同相暗号 (HE) と比較して9.1e2 3.8e4 の高速化を図りながら,本手法がトレーニング性能に影響を及ぼさないことを実証的に実証した。
- 参考スコア(独自算出の注目度): 10.295508659999783
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The majority of work in privacy-preserving federated learning (FL) has been
focusing on horizontally partitioned datasets where clients share the same sets
of features and can train complete models independently. However, in many
interesting problems, such as financial fraud detection and disease detection,
individual data points are scattered across different clients/organizations in
vertical federated learning. Solutions for this type of FL require the exchange
of gradients between participants and rarely consider privacy and security
concerns, posing a potential risk of privacy leakage. In this work, we present
a novel design for training vertical FL securely and efficiently using
state-of-the-art security modules for secure aggregation. We demonstrate
empirically that our method does not impact training performance whilst
obtaining 9.1e2 ~3.8e4 speedup compared to homomorphic encryption (HE).
- Abstract(参考訳): プライバシ保護連合学習(fl)における作業の大部分は、クライアントが同じ機能セットを共有し、完全なモデルを独立してトレーニング可能な、水平分割データセットに注目している。
しかし,金融詐欺検出や疾患検出など,多くの興味深い問題において,垂直連合学習において,個々のデータポイントが異なるクライアント/組織に分散している。
この種のflのソリューションには、参加者間の勾配の交換が必要であり、プライバシーやセキュリティに関する懸念をほとんど考慮しない。
本稿では,セキュアアグリゲーションのための最先端セキュリティモジュールを用いて,垂直flを安全かつ効率的にトレーニングするための新しい設計を提案する。
本手法は,準同型暗号 (he) と比較して 9.1e2 ~3.8e4 高速化が得られながら,トレーニング性能に影響を与えないことを示す。
関連論文リスト
- TPFL: A Trustworthy Personalized Federated Learning Framework via Subjective Logic [13.079535924498977]
フェデレートラーニング(FL)は、データプライバシを保持しながら、分散クライアント間で協調的なモデルトレーニングを可能にする。
ほとんどのFLアプローチは、プライバシ保護に重点を置いているが、信頼性が不可欠であるシナリオでは不足している。
主観的論理を用いた分類タスク用に設計された信頼に足る個人化フェデレーション学習フレームワークを紹介する。
論文 参考訳(メタデータ) (2024-10-16T07:33:29Z) - On Joint Noise Scaling in Differentially Private Federated Learning with Multiple Local Steps [0.5439020425818999]
フェデレーション学習(Federated Learning)とは、生データを共有せずに機械学習モデルをトレーニングする分散学習環境である。
簡単な新しい分析によって、セキュアなアグリゲーションの恩恵を受けながら、パーティが複数のローカルな最適化ステップを実行できることを示します。
論文 参考訳(メタデータ) (2024-07-27T15:54:58Z) - Secure Vertical Federated Learning Under Unreliable Connectivity [22.03946356498099]
我々は、最初のドロップアウト耐性VFLプロトコルであるvFedSecを紹介する。
埋め込み-パディング技術とともに革新的なSecure Layerを使用することで、セキュアで効率的なモデルトレーニングを実現する。
論文 参考訳(メタデータ) (2023-05-26T10:17:36Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - FedFM: Anchor-based Feature Matching for Data Heterogeneity in Federated
Learning [91.74206675452888]
本稿では,各クライアントの特徴を共有カテゴリーのアンカーにマッチさせる新しいFedFM法を提案する。
効率と柔軟性を向上させるため,FedFM-Liteと呼ばれるFedFM変種を提案し,クライアントは同期時間と通信帯域幅のコストを少なくしてサーバと通信する。
論文 参考訳(メタデータ) (2022-10-14T08:11:34Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Dubhe: Towards Data Unbiasedness with Homomorphic Encryption in
Federated Learning Client Selection [16.975086164684882]
Federated Learning(FL)は、クライアントが自身のローカルデータ上でモデルを協調的にトレーニングできる分散機械学習パラダイムである。
FLの性能劣化の原因を数学的に検証し,様々なデータセット上でのFLの性能について検討する。
そこで我々はDubheという名のプラグイン可能なシステムレベルのクライアント選択手法を提案し,HEの助けを借りてクライアントを積極的にトレーニングに参加させ,プライバシを保護できるようにする。
論文 参考訳(メタデータ) (2021-09-08T13:00:46Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - Local and Central Differential Privacy for Robustness and Privacy in
Federated Learning [13.115388879531967]
フェデレートラーニング(FL)では、モデルの更新のみを交換しながらデータセットをローカルに保つことで、複数の参加者が機械学習モデルを協調的にトレーニングすることができる。
本稿では,FLにおけるプライバシーとロバスト性の両方を保護するために差分プライバシ(DP)をどの程度利用できるかについて検討する。
論文 参考訳(メタデータ) (2020-09-08T07:37:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。