論文の概要: A Survey of Privacy Threats and Defense in Vertical Federated Learning:
From Model Life Cycle Perspective
- arxiv url: http://arxiv.org/abs/2402.03688v1
- Date: Tue, 6 Feb 2024 04:22:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 16:44:41.443347
- Title: A Survey of Privacy Threats and Defense in Vertical Federated Learning:
From Model Life Cycle Perspective
- Title(参考訳): 垂直連合学習におけるプライバシの脅威と防御に関する調査--モデルライフサイクルの観点から
- Authors: Lei Yu, Meng Han, Yiming Li, Changting Lin, Yao Zhang, Mingyang Zhang,
Yan Liu, Haiqin Weng, Yuseok Jeon, Ka-Ho Chow, Stacy Patterson
- Abstract要約: 我々は、垂直的フェデレーションラーニングにおけるプライバシー攻撃と防衛の最先端に関する、最初の総合的な調査を行う。
我々は,攻撃と防御の両面において,その特徴に基づいて,オープンな課題と今後の研究方向性について議論する。
- 参考スコア(独自算出の注目度): 31.19776505014808
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vertical Federated Learning (VFL) is a federated learning paradigm where
multiple participants, who share the same set of samples but hold different
features, jointly train machine learning models. Although VFL enables
collaborative machine learning without sharing raw data, it is still
susceptible to various privacy threats. In this paper, we conduct the first
comprehensive survey of the state-of-the-art in privacy attacks and defenses in
VFL. We provide taxonomies for both attacks and defenses, based on their
characterizations, and discuss open challenges and future research directions.
Specifically, our discussion is structured around the model's life cycle, by
delving into the privacy threats encountered during different stages of machine
learning and their corresponding countermeasures. This survey not only serves
as a resource for the research community but also offers clear guidance and
actionable insights for practitioners to safeguard data privacy throughout the
model's life cycle.
- Abstract(参考訳): Vertical Federated Learning(VFL)は、複数の参加者が同じサンプルを共有し、異なる特徴を持つ、共同で機械学習モデルをトレーニングする、連合学習パラダイムである。
VFLは生データを共有せずにコラボレーティブな機械学習を可能にするが、それでもさまざまなプライバシー上の脅威を受けやすい。
本稿では,VFLにおけるプライバシ攻撃と防衛における最先端技術に関する総合的な調査を行う。
本研究は,攻撃と防衛の両方に分類学を提供し,その特徴に基づいてオープン課題と今後の研究方向性について議論する。
具体的には,機械学習のさまざまな段階で発生するプライバシの脅威と,それに対応する対策を掘り下げることで,モデルのライフサイクルを中心にして議論を行う。
この調査は研究コミュニティのリソースとして機能するだけでなく、モデルのライフサイクルを通じてデータプライバシを保護するための明確なガイダンスと実用的な洞察を提供する。
関連論文リスト
- UIFV: Data Reconstruction Attack in Vertical Federated Learning [5.404398887781436]
Vertical Federated Learning (VFL)は、参加者が生のプライベートデータを共有することなく、協調的な機械学習を促進する。
近年の研究では、学習プロセス中にデータ漏洩によって、敵が機密性を再構築する可能性のあるプライバシーリスクが明らかにされている。
我々の研究は、実用的なVFLアプリケーションに真の脅威をもたらす、VFLシステム内の深刻なプライバシー上の脆弱性を露呈する。
論文 参考訳(メタデータ) (2024-06-18T13:18:52Z) - Vertical Federated Learning for Effectiveness, Security, Applicability: A Survey [67.48187503803847]
Vertical Federated Learning(VFL)は、プライバシ保護のための分散学習パラダイムである。
近年の研究では、VFLの様々な課題に対処する有望な成果が示されている。
この調査は、最近の展開を体系的に概観する。
論文 参考訳(メタデータ) (2024-05-25T16:05:06Z) - Privacy Side Channels in Machine Learning Systems [87.53240071195168]
プライバシサイドチャネルは、システムレベルのコンポーネントを利用してプライベート情報を抽出する攻撃である。
例えば、差分プライベートなトレーニングを適用する前にトレーニングデータを重複させることで、保証可能なプライバシ保証を完全に無効にするサイドチャネルが生成されることを示す。
さらに,学習データセットに含まれる秘密鍵を抽出するために,言語モデルを学習データ再生からブロックするシステムを利用することを示す。
論文 参考訳(メタデータ) (2023-09-11T16:49:05Z) - Students Parrot Their Teachers: Membership Inference on Model
Distillation [54.392069096234074]
知識蒸留によるプライバシを,教師と学生のトレーニングセットの両方で研究する。
私たちの攻撃は、生徒セットと教師セットが類似している場合、または攻撃者が教師セットを毒できる場合、最強です。
論文 参考訳(メタデータ) (2023-03-06T19:16:23Z) - Vertical Federated Learning: Concepts, Advances and Challenges [18.38260017835129]
VFL(Vertical Federated Learning)の概念とアルゴリズムについてレビューする。
VFL設定とプライバシ保護プロトコルを網羅的に分類する。
本稿では,コミュニケーション,計算,プライバシ,有効性,公平性といった制約を考慮した統合フレームワーク VFLow を提案する。
論文 参考訳(メタデータ) (2022-11-23T10:00:06Z) - ADI: Adversarial Dominating Inputs in Vertical Federated Learning Systems [19.63921342081889]
参加者の特定の入力、すなわち、相手の意志の方向に対する共同推論を支配できる相手支配的入力(perturbs)が見つかる。
本稿では,様々なフォーマットのADIを合成し,共通VFLシステムを利用する勾配法を提案する。
我々の研究は、新たなVFL攻撃の機会を明らかにし、侵入前の未知の脅威の特定を促進し、より安全なVFLシステムを構築する。
論文 参考訳(メタデータ) (2022-01-08T06:18:17Z) - Federated Test-Time Adaptive Face Presentation Attack Detection with
Dual-Phase Privacy Preservation [100.69458267888962]
顔提示攻撃検出(fPAD)は、現代の顔認識パイプラインにおいて重要な役割を果たす。
法的およびプライバシー上の問題により、トレーニングデータ(実際の顔画像と偽画像)は、異なるデータソース間で直接共有することはできない。
本稿では,二相プライバシー保護フレームワークを用いたフェデレーションテスト時間適応顔提示検出を提案する。
論文 参考訳(メタデータ) (2021-10-25T02:51:05Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。