論文の概要: A Survey of Privacy Threats and Defense in Vertical Federated Learning:
From Model Life Cycle Perspective
- arxiv url: http://arxiv.org/abs/2402.03688v1
- Date: Tue, 6 Feb 2024 04:22:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 16:44:41.443347
- Title: A Survey of Privacy Threats and Defense in Vertical Federated Learning:
From Model Life Cycle Perspective
- Title(参考訳): 垂直連合学習におけるプライバシの脅威と防御に関する調査--モデルライフサイクルの観点から
- Authors: Lei Yu, Meng Han, Yiming Li, Changting Lin, Yao Zhang, Mingyang Zhang,
Yan Liu, Haiqin Weng, Yuseok Jeon, Ka-Ho Chow, Stacy Patterson
- Abstract要約: 我々は、垂直的フェデレーションラーニングにおけるプライバシー攻撃と防衛の最先端に関する、最初の総合的な調査を行う。
我々は,攻撃と防御の両面において,その特徴に基づいて,オープンな課題と今後の研究方向性について議論する。
- 参考スコア(独自算出の注目度): 31.19776505014808
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vertical Federated Learning (VFL) is a federated learning paradigm where
multiple participants, who share the same set of samples but hold different
features, jointly train machine learning models. Although VFL enables
collaborative machine learning without sharing raw data, it is still
susceptible to various privacy threats. In this paper, we conduct the first
comprehensive survey of the state-of-the-art in privacy attacks and defenses in
VFL. We provide taxonomies for both attacks and defenses, based on their
characterizations, and discuss open challenges and future research directions.
Specifically, our discussion is structured around the model's life cycle, by
delving into the privacy threats encountered during different stages of machine
learning and their corresponding countermeasures. This survey not only serves
as a resource for the research community but also offers clear guidance and
actionable insights for practitioners to safeguard data privacy throughout the
model's life cycle.
- Abstract(参考訳): Vertical Federated Learning(VFL)は、複数の参加者が同じサンプルを共有し、異なる特徴を持つ、共同で機械学習モデルをトレーニングする、連合学習パラダイムである。
VFLは生データを共有せずにコラボレーティブな機械学習を可能にするが、それでもさまざまなプライバシー上の脅威を受けやすい。
本稿では,VFLにおけるプライバシ攻撃と防衛における最先端技術に関する総合的な調査を行う。
本研究は,攻撃と防衛の両方に分類学を提供し,その特徴に基づいてオープン課題と今後の研究方向性について議論する。
具体的には,機械学習のさまざまな段階で発生するプライバシの脅威と,それに対応する対策を掘り下げることで,モデルのライフサイクルを中心にして議論を行う。
この調査は研究コミュニティのリソースとして機能するだけでなく、モデルのライフサイクルを通じてデータプライバシを保護するための明確なガイダンスと実用的な洞察を提供する。
関連論文リスト
- Assessing Privacy Risks in Language Models: A Case Study on
Summarization Tasks [65.21536453075275]
我々は要約作業に焦点をあて、会員推測(MI)攻撃について調査する。
テキストの類似性や文書修正に対するモデルの抵抗をMI信号として活用する。
我々は、MI攻撃から保護するための要約モデルの訓練と、プライバシとユーティリティの本質的にのトレードオフについて議論する。
論文 参考訳(メタデータ) (2023-10-20T05:44:39Z) - VFLAIR: A Research Library and Benchmark for Vertical Federated Learning [15.318415232323522]
垂直学習(VFL)は、同じグループのユーザの異なる特徴を持つ参加者が、生のデータやモデルパラメータを公開せずに協調トレーニングを達成できるようにする、協調トレーニングパラダイムとして登場した。
近年、VFLは研究の可能性や現実世界の応用に大きな注目を集めているが、様々な種類のデータ推論やバックドア攻撃の防衛など、依然として重大な課題に直面している。
我々は、様々なモデル、データセット、プロトコルによるVFLトレーニングと、攻撃と防御戦略の総合的な評価のための標準化されたモジュールをサポートする、フェデレーションで軽量なVFLフレームワークであるVFLAIRを提案する。
論文 参考訳(メタデータ) (2023-10-15T13:18:31Z) - Privacy Side Channels in Machine Learning Systems [82.85919161427604]
プライバシサイドチャネルは、システムレベルのコンポーネントを利用してプライベート情報を抽出する攻撃である。
機械学習ライフサイクル全体にわたるサイドチャネルの4つのカテゴリを提案する。
我々の結果は、全体的なエンドツーエンドのプライバシー分析の必要性を示しています。
論文 参考訳(メタデータ) (2023-09-11T16:49:05Z) - Students Parrot Their Teachers: Membership Inference on Model
Distillation [54.392069096234074]
知識蒸留によるプライバシを,教師と学生のトレーニングセットの両方で研究する。
私たちの攻撃は、生徒セットと教師セットが類似している場合、または攻撃者が教師セットを毒できる場合、最強です。
論文 参考訳(メタデータ) (2023-03-06T19:16:23Z) - Vertical Federated Learning: Concepts, Advances and Challenges [18.38260017835129]
VFL(Vertical Federated Learning)の概念とアルゴリズムについてレビューする。
VFL設定とプライバシ保護プロトコルを網羅的に分類する。
本稿では,コミュニケーション,計算,プライバシ,有効性,公平性といった制約を考慮した統合フレームワーク VFLow を提案する。
論文 参考訳(メタデータ) (2022-11-23T10:00:06Z) - Subject Membership Inference Attacks in Federated Learning [4.377743737361996]
対象者推定のためのブラックボックス攻撃を2つ提案する。
正確なトレーニング記録にアクセスしなくても、攻撃は極めて強力なものだと考えています。
また、この脅威を緩和する上での差別化プライバシの有効性についても検討する。
論文 参考訳(メタデータ) (2022-06-07T14:06:12Z) - ADI: Adversarial Dominating Inputs in Vertical Federated Learning
Systems [13.081925156083821]
参加者の特定の入力、すなわち、相手の意志の方向に対する共同推論を支配できる相手支配的入力(perturbs)が見つかる。
本稿では,様々なフォーマットのADIを合成し,共通VFLシステムを利用する勾配法を提案する。
我々の研究は、新たなVFL攻撃の機会を明らかにし、侵入前の未知の脅威の特定を促進し、より安全なVFLシステムを構築する。
論文 参考訳(メタデータ) (2022-01-08T06:18:17Z) - Federated Test-Time Adaptive Face Presentation Attack Detection with
Dual-Phase Privacy Preservation [100.69458267888962]
顔提示攻撃検出(fPAD)は、現代の顔認識パイプラインにおいて重要な役割を果たす。
法的およびプライバシー上の問題により、トレーニングデータ(実際の顔画像と偽画像)は、異なるデータソース間で直接共有することはできない。
本稿では,二相プライバシー保護フレームワークを用いたフェデレーションテスト時間適応顔提示検出を提案する。
論文 参考訳(メタデータ) (2021-10-25T02:51:05Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。