論文の概要: UIFV: Data Reconstruction Attack in Vertical Federated Learning
- arxiv url: http://arxiv.org/abs/2406.12588v2
- Date: Tue, 14 Jan 2025 21:17:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-16 15:51:12.240779
- Title: UIFV: Data Reconstruction Attack in Vertical Federated Learning
- Title(参考訳): UIFV: 垂直的フェデレーション学習におけるデータ再構成攻撃
- Authors: Jirui Yang, Peng Chen, Zhihui Lu, Qiang Duan, Yubing Bao,
- Abstract要約: Vertical Federated Learning (VFL)は、参加者が生のプライベートデータを共有することなく、協調的な機械学習を促進する。
近年の研究では、学習プロセス中にデータ漏洩によって、敵が機密性を再構築する可能性のあるプライバシーリスクが明らかにされている。
我々の研究は、実用的なVFLアプリケーションに真の脅威をもたらす、VFLシステム内の深刻なプライバシー上の脆弱性を露呈する。
- 参考スコア(独自算出の注目度): 5.404398887781436
- License:
- Abstract: Vertical Federated Learning (VFL) facilitates collaborative machine learning without the need for participants to share raw private data. However, recent studies have revealed privacy risks where adversaries might reconstruct sensitive features through data leakage during the learning process. Although data reconstruction methods based on gradient or model information are somewhat effective, they reveal limitations in VFL application scenarios. This is because these traditional methods heavily rely on specific model structures and/or have strict limitations on application scenarios. To address this, our study introduces the Unified InverNet Framework into VFL, which yields a novel and flexible approach (dubbed UIFV) that leverages intermediate feature data to reconstruct original data, instead of relying on gradients or model details. The intermediate feature data is the feature exchanged by different participants during the inference phase of VFL. Experiments on four datasets demonstrate that our methods significantly outperform state-of-the-art techniques in attack precision. Our work exposes severe privacy vulnerabilities within VFL systems that pose real threats to practical VFL applications and thus confirms the necessity of further enhancing privacy protection in the VFL architecture.
- Abstract(参考訳): Vertical Federated Learning (VFL)は、参加者が生のプライベートデータを共有することなく、協調的な機械学習を促進する。
しかし、近年の研究では、学習プロセス中にデータ漏洩によって、敵が機密性を再構築する可能性のあるプライバシーリスクが明らかにされている。
勾配情報やモデル情報に基づくデータ再構成手法はやや効果があるが、VFLアプリケーションのシナリオに制限があることを明らかにする。
これは、これらの伝統的なメソッドが特定のモデル構造に強く依存し、または/またはアプリケーションのシナリオに厳格な制限があるためです。
これを解決するために、我々はUnified InverNet FrameworkをVFLに導入した。これは、勾配やモデルの詳細に頼るのではなく、中間機能データを利用してオリジナルのデータを再構築する、新しく柔軟なアプローチ(UIFVと呼ばれる)をもたらす。
中間特徴データは、VFLの推論フェーズにおいて、異なる参加者によって交換される特徴である。
4つのデータセットの実験により、我々の手法は攻撃精度において最先端技術を大幅に上回っていることが示された。
我々の研究は、実用的なVFLアプリケーションに真の脅威をもたらす、VFLシステム内の深刻なプライバシの脆弱性を明らかにし、VFLアーキテクチャにおけるさらなるプライバシー保護の必要性を確認する。
関連論文リスト
- Vertical Federated Learning in Practice: The Good, the Bad, and the Ugly [42.31182713177944]
本稿では,VFL(Vertical Federated Learning)アプリケーションにおける実世界のデータ分布を分析した。
本稿では,実際のVFLデータ分布に基づくVFLアルゴリズムの新たなデータ指向分類法を提案する。
これらの観測に基づいて、現在のVFL研究と実世界の応用とのギャップを埋めるための重要な研究の方向性を概説する。
論文 参考訳(メタデータ) (2025-02-12T07:03:32Z) - Just a Simple Transformation is Enough for Data Protection in Vertical Federated Learning [83.90283731845867]
我々は、入力データ妥協を目標とする一般的なリスクである特徴再構成攻撃について検討する。
フェデレーションベースのモデルは、最先端の機能再構築攻撃に耐性があることが示される。
論文 参考訳(メタデータ) (2024-12-16T12:02:12Z) - Vertical Federated Unlearning via Backdoor Certification [15.042986414487922]
VFLは機械学習における新しいパラダイムを提供し、データプライバシを維持しながら、異なるエンティティが協力してモデルをトレーニングできるようにする。
最近のプライバシー規制では、個人が忘れられる権利を強調しており、モデルが特定のトレーニングデータを学習する能力を必要としている。
本稿では,従来のVFLに対して,特定のデータコントリビューションを抽出する目的で,典型的な学習軌跡を逆転させる機構を取り入れた革新的な修正を導入する。
論文 参考訳(メタデータ) (2024-12-16T06:40:25Z) - A New Federated Learning Framework Against Gradient Inversion Attacks [17.3044168511991]
Federated Learning (FL)は、クライアントが生データを共有せずに機械学習モデルを集合的にトレーニングできるようにすることで、データのプライバシを保護することを目的としている。
近年の研究では、FL中に交換された情報がグラディエント・インバージョン・アタック(GIA)の対象であることが示されている。
論文 参考訳(メタデータ) (2024-12-10T04:53:42Z) - Vertical Federated Learning for Effectiveness, Security, Applicability: A Survey [67.48187503803847]
Vertical Federated Learning(VFL)は、プライバシ保護のための分散学習パラダイムである。
近年の研究では、VFLの様々な課題に対処する有望な成果が示されている。
この調査は、最近の展開を体系的に概観する。
論文 参考訳(メタデータ) (2024-05-25T16:05:06Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Fishing for User Data in Large-Batch Federated Learning via Gradient
Magnification [65.33308059737506]
フェデレートラーニング(FL)は、プライバシーと効率性の約束により急速に人気が高まっている。
これまでの作業では、勾配更新からユーザデータを復元することで、FLパイプラインのプライバシの脆弱性が露呈されていた。
我々は、任意のサイズのバッチで運用するために、既存の攻撃を劇的に高める新しい戦略を導入する。
論文 参考訳(メタデータ) (2022-02-01T17:26:11Z) - DVFL: A Vertical Federated Learning Method for Dynamic Data [2.406222636382325]
本稿では,共同作業を行う組織が,同じユーザ集合を共有できるが,機能に相容れないシナリオに対処する,垂直連合学習(VFL)について検討する。
本稿では,知識蒸留による動的データ分布変化に適応する,新しい縦型フェデレーション学習手法DVFLを提案する。
DVFLは静的シーンにおける既存のVFL手法に近い結果を得るだけでなく,動的シナリオにおけるデータ分布の変化にも適応できることを示す。
論文 参考訳(メタデータ) (2021-11-05T09:26:09Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Differentially private federated deep learning for multi-site medical
image segmentation [56.30543374146002]
フェデレートラーニング(FL)のような協調機械学習技術は、データ転送なしで効果的に大規模なデータセット上でモデルのトレーニングを可能にする。
近年のイニシアチブでは、FLで訓練されたセグメンテーションモデルが、局所的に訓練されたモデルと同様のパフォーマンスを達成できることが示されている。
しかし、FLは完全なプライバシ保護技術ではなく、プライバシ中心の攻撃は秘密の患者データを開示することができる。
論文 参考訳(メタデータ) (2021-07-06T12:57:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。