論文の概要: BlindFL: Vertical Federated Machine Learning without Peeking into Your
Data
- arxiv url: http://arxiv.org/abs/2206.07975v1
- Date: Thu, 16 Jun 2022 07:26:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-17 16:26:06.422807
- Title: BlindFL: Vertical Federated Machine Learning without Peeking into Your
Data
- Title(参考訳): BlindFL: データを覗かずに、垂直にフェデレーションされた機械学習
- Authors: Fangcheng Fu, Huanran Xue, Yong Cheng, Yangyu Tao, Bin Cui
- Abstract要約: 垂直連合学習(VFL)は、さまざまな参加者のプライベートデータに基づいてMLモデルを構築する場合を記述している。
本稿では,VFLトレーニングと推論のための新しいフレームワークであるBlindFLを紹介する。
BlindFLは、堅牢なプライバシー保証を達成しつつ、多様なデータセットやモデルを効率的にサポートする。
- 参考スコア(独自算出の注目度): 20.048695060411774
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the rising concerns on privacy protection, how to build machine
learning (ML) models over different data sources with security guarantees is
gaining more popularity. Vertical federated learning (VFL) describes such a
case where ML models are built upon the private data of different participated
parties that own disjoint features for the same set of instances, which fits
many real-world collaborative tasks. Nevertheless, we find that existing
solutions for VFL either support limited kinds of input features or suffer from
potential data leakage during the federated execution. To this end, this paper
aims to investigate both the functionality and security of ML modes in the VFL
scenario.
To be specific, we introduce BlindFL, a novel framework for VFL training and
inference. First, to address the functionality of VFL models, we propose the
federated source layers to unite the data from different parties. Various kinds
of features can be supported efficiently by the federated source layers,
including dense, sparse, numerical, and categorical features. Second, we
carefully analyze the security during the federated execution and formalize the
privacy requirements. Based on the analysis, we devise secure and accurate
algorithm protocols, and further prove the security guarantees under the
ideal-real simulation paradigm. Extensive experiments show that BlindFL
supports diverse datasets and models efficiently whilst achieves robust privacy
guarantees.
- Abstract(参考訳): プライバシ保護に対する懸念が高まっているため、セキュリティ保証のあるさまざまなデータソース上で機械学習(ML)モデルを構築する方法が人気を集めている。
Vertical Federated Learning (VFL)は、MLモデルが、さまざまな参加者のプライベートデータに基づいて構築され、同じインスタンスの非結合機能を持つ場合について説明している。
それにもかかわらず、vflの既存のソリューションは限られた種類の入力機能をサポートするか、フェデレーション実行中に潜在的なデータ漏洩に悩まされている。
そこで本研究では,VFLシナリオにおけるMLモードの機能とセキュリティの両面について検討する。
具体的には、VFLトレーニングと推論のための新しいフレームワークであるBlindFLを紹介する。
まず、VFLモデルの機能性に対処するため、異なるパーティからのデータを統一するフェデレーションされたソース層を提案する。
各種の特徴は, 密度, スパース, 数値, カテゴリー的特徴など, 連合源層によって効率的に支持することができる。
第2に、フェデレーション実行中のセキュリティを慎重に分析し、プライバシ要件を形式化する。
この分析に基づいて,セキュアで正確なアルゴリズムプロトコルを考案し,理想現実シミュレーションパラダイムの下でのセキュリティ保証をさらに証明する。
大規模な実験により、BlindFLは多様なデータセットとモデルを効率的にサポートし、堅牢なプライバシー保証を実現する。
関連論文リスト
- UIFV: Data Reconstruction Attack in Vertical Federated Learning [5.404398887781436]
Vertical Federated Learning (VFL)は、参加者が生のプライベートデータを共有することなく、協調的な機械学習を促進する。
近年の研究では、学習プロセス中にデータ漏洩によって、敵が機密性を再構築する可能性のあるプライバシーリスクが明らかにされている。
我々の研究は、実用的なVFLアプリケーションに真の脅威をもたらす、VFLシステム内の深刻なプライバシー上の脆弱性を露呈する。
論文 参考訳(メタデータ) (2024-06-18T13:18:52Z) - Vertical Federated Learning for Effectiveness, Security, Applicability: A Survey [67.48187503803847]
Vertical Federated Learning(VFL)は、プライバシ保護のための分散学習パラダイムである。
近年の研究では、VFLの様々な課題に対処する有望な成果が示されている。
この調査は、最近の展開を体系的に概観する。
論文 参考訳(メタデータ) (2024-05-25T16:05:06Z) - Differentially Private Wireless Federated Learning Using Orthogonal
Sequences [56.52483669820023]
本稿では,FLORAS と呼ばれる AirComp 法を提案する。
FLORASはアイテムレベルとクライアントレベルの差分プライバシー保証の両方を提供する。
新たなFL収束バウンダリが導出され、プライバシー保証と組み合わせることで、達成された収束率と差分プライバシーレベルのスムーズなトレードオフが可能になる。
論文 参考訳(メタデータ) (2023-06-14T06:35:10Z) - Quadratic Functional Encryption for Secure Training in Vertical
Federated Learning [26.188083606166806]
Vertical Federated Learning(VFL)は、複数のパーティに分散した設定において、機械学習(ML)モデルの協調トレーニングを可能にする。
VFLでは、ラベルは単一のパーティで利用可能であり、すべてのパーティのデータが結合された場合にのみ、完全なフィーチャーセットが形成される。
近年、Xuらはマルチインプット関数暗号を用いたVFLのためのセキュア勾配計算のためのFedVと呼ばれる新しいフレームワークを提案した。
論文 参考訳(メタデータ) (2023-05-15T05:31:35Z) - FedSDG-FS: Efficient and Secure Feature Selection for Vertical Federated
Learning [21.79965380400454]
Vertical Learning(VFL)は、複数のデータオーナに対して、大きな重複するデータサンプルセットに関する機能のサブセットをそれぞれ保持して、有用なグローバルモデルを共同でトレーニングすることを可能にする。
VFLのために設計された既存のFSは、ノイズの多い特徴の数について事前知識を仮定するか、有用な特徴の訓練後のしきい値について事前知識を仮定する。
本稿では,FedSDG-FS(Federated Dual-Gate Based Feature Selection)アプローチを提案する。
論文 参考訳(メタデータ) (2023-02-21T03:09:45Z) - Desirable Companion for Vertical Federated Learning: New Zeroth-Order
Gradient Based Algorithm [140.25480610981504]
VFLアルゴリズムを評価するための指標の完全なリストには、モデル適用性、プライバシ、通信、計算効率が含まれるべきである。
ブラックボックスのスケーラビリティを備えた新しいVFLフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-19T13:55:47Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - EFMVFL: An Efficient and Flexible Multi-party Vertical Federated
Learning without a Third Party [7.873139977724476]
フェデレートラーニング(Federated Learning)は、複数の参加者が、ローカルデータを開示することなく、共同でモデリングを行うことを可能にする。
EFMVFLと呼ばれるサードパーティを使わずに新しいVFLフレームワークを提案する。
私たちのフレームワークはセキュアで、より効率的で、複数の参加者に拡張が容易です。
論文 参考訳(メタデータ) (2022-01-17T07:06:21Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Secure Bilevel Asynchronous Vertical Federated Learning with Backward
Updating [159.48259714642447]
垂直拡張学習(VFL)は、多人数協調モデリングの要求とプライバシー漏洩の懸念により、注目を集めている。
我々は,vf$b2$を含む3つの新しいアルゴリズムを提案する新しいbftextlevel parallel architecture (vf$bfb2$)を提案する。
論文 参考訳(メタデータ) (2021-03-01T12:34:53Z) - Hybrid Differentially Private Federated Learning on Vertically
Partitioned Data [41.7896466307821]
垂直統合学習(VFL)のためのDPフレームワークであるHDP-VFLについて述べる。
我々は、VFLの中間結果(IR)が、コミュニケーション中にトレーニングデータのプライベート情報を漏洩させる方法について分析する。
数学的には、我々のアルゴリズムはVFLのユーティリティ保証を提供するだけでなく、マルチレベルプライバシも提供することを証明している。
論文 参考訳(メタデータ) (2020-09-06T16:06:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。