論文の概要: Feature Inference Attack on Model Predictions in Vertical Federated
Learning
- arxiv url: http://arxiv.org/abs/2010.10152v3
- Date: Thu, 22 Apr 2021 11:44:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 07:47:56.966032
- Title: Feature Inference Attack on Model Predictions in Vertical Federated
Learning
- Title(参考訳): 垂直フェデレーション学習におけるモデル予測に対する特徴推論攻撃
- Authors: Xinjian Luo, Yuncheng Wu, Xiaokui Xiao, Beng Chin Ooi
- Abstract要約: フェデレーテッド・ラーニング(FL)は、複数の組織が互いにプライベートなデータを公開せずに協力し合うための新興パラダイムである。
本稿では,縦型FLのモデル予測段階における潜在的なプライバシー漏洩について,いくつかの特徴推論攻撃手法を提案する。
- 参考スコア(独自算出の注目度): 26.7517556631796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) is an emerging paradigm for facilitating multiple
organizations' data collaboration without revealing their private data to each
other. Recently, vertical FL, where the participating organizations hold the
same set of samples but with disjoint features and only one organization owns
the labels, has received increased attention. This paper presents several
feature inference attack methods to investigate the potential privacy leakages
in the model prediction stage of vertical FL. The attack methods consider the
most stringent setting that the adversary controls only the trained vertical FL
model and the model predictions, relying on no background information. We first
propose two specific attacks on the logistic regression (LR) and decision tree
(DT) models, according to individual prediction output. We further design a
general attack method based on multiple prediction outputs accumulated by the
adversary to handle complex models, such as neural networks (NN) and random
forest (RF) models. Experimental evaluations demonstrate the effectiveness of
the proposed attacks and highlight the need for designing private mechanisms to
protect the prediction outputs in vertical FL.
- Abstract(参考訳): フェデレーション学習(federated learning, fl)は、複数の組織のデータコラボレーションを促進する上で、互いにプライベートデータを明かすことなく新たなパラダイムである。
近年では,参加団体が同一のサンプル群を所持するが,非協力的な特徴を持ち,ラベルを所有する組織は1社のみであるvertical flが注目されている。
本稿では,縦型FLのモデル予測段階における潜在的なプライバシー漏洩について,いくつかの特徴推論攻撃手法を提案する。
攻撃方法は、訓練された垂直FLモデルとモデル予測のみを敵が制御し、背景情報に依存しない最も厳密な設定を考える。
まず,ロジスティック回帰 (lr) モデルと決定木モデル (dt) モデルに対する2つの特定の攻撃を予測結果に応じて提案する。
さらに、ニューラルネットワーク(NN)やランダムフォレスト(RF)モデルなどの複雑なモデルを扱うために、敵が蓄積した複数の予測出力に基づいて、汎用攻撃法を設計する。
実験評価は,提案手法の有効性を実証し,垂直flの予測出力を保護するためのプライベート機構の設計の必要性を強調する。
関連論文リスト
- Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - Membership Inference Attacks on Diffusion Models via Quantile Regression [30.30033625685376]
我々は,家族関係推論(MI)攻撃による拡散モデルのプライバシー上の脆弱性を実証する。
提案したMI攻撃は、トレーニングに使用されていない例における再構成損失の分布を予測(定量化)する量子レグレッションモデルを学習する。
我々の攻撃は従来の最先端攻撃よりも優れており、計算コストは著しく低い。
論文 参考訳(メタデータ) (2023-12-08T16:21:24Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Data-Agnostic Model Poisoning against Federated Learning: A Graph
Autoencoder Approach [65.2993866461477]
本稿では,フェデレートラーニング(FL)に対するデータに依存しないモデル中毒攻撃を提案する。
この攻撃はFLトレーニングデータの知識を必要とせず、有効性と検出不能の両方を達成する。
実験により、FLの精度は提案した攻撃の下で徐々に低下し、既存の防御機構では検出できないことが示された。
論文 参考訳(メタデータ) (2023-11-30T12:19:10Z) - Mitigating Backdoors in Federated Learning with FLD [7.908496863030483]
フェデレーション学習は、クライアントがプライバシー保護のために生データをアップロードすることなく、グローバルモデルを協調的にトレーニングすることを可能にする。
この機能は最近、バックドア攻撃に直面したフェデレーション学習の脆弱性の原因となっていることが判明した。
バックドア攻撃に対して効果的に防御する新しいモデルフィルタリング手法であるフェデレート層検出(FLD)を提案する。
論文 参考訳(メタデータ) (2023-03-01T07:54:54Z) - Robust Transferable Feature Extractors: Learning to Defend Pre-Trained
Networks Against White Box Adversaries [69.53730499849023]
また, 予測誤差を誘導するために, 逆例を独立に学習した別のモデルに移すことが可能であることを示す。
本稿では,頑健な伝達可能な特徴抽出器(RTFE)と呼ばれる,ディープラーニングに基づく事前処理機構を提案する。
論文 参考訳(メタデータ) (2022-09-14T21:09:34Z) - Defending against the Label-flipping Attack in Federated Learning [5.769445676575767]
フェデレーテッド・ラーニング(FL)は、参加する仲間にデザインによる自律性とプライバシを提供する。
ラベルフリッピング(LF)攻撃(英: label-flipping, LF)は、攻撃者がラベルをめくってトレーニングデータに毒を盛る攻撃である。
本稿では、まず、ピアのローカル更新からこれらの勾配を動的に抽出する新しいディフェンスを提案する。
論文 参考訳(メタデータ) (2022-07-05T12:02:54Z) - FL-Defender: Combating Targeted Attacks in Federated Learning [7.152674461313707]
フェデレートラーニング(FL)は、グローバル機械学習モデルを、参加する労働者のセット間で分散されたローカルデータから学習することを可能にする。
FLは、学習モデルの完全性に悪影響を及ぼす標的の毒殺攻撃に対して脆弱である。
FL標的攻撃に対抗する手段として,textitFL-Defenderを提案する。
論文 参考訳(メタデータ) (2022-07-02T16:04:46Z) - Test-time Collective Prediction [73.74982509510961]
マシンラーニングの複数のパーティは、将来のテストポイントを共同で予測したいと考えています。
エージェントは、すべてのエージェントの集合の集合的な専門知識の恩恵を受けることを望んでいるが、データやモデルパラメータを解放する意思はないかもしれない。
我々は、各エージェントの事前学習モデルを利用して、テスト時に集合的な予測を行う分散型メカニズムを探索する。
論文 参考訳(メタデータ) (2021-06-22T18:29:58Z) - Adversarial Attack and Defense of Structured Prediction Models [58.49290114755019]
本論文では,NLPにおける構造化予測タスクに対する攻撃と防御について検討する。
構造化予測モデルの構造化出力は、入力中の小さな摂動に敏感である。
本稿では,シーケンス・ツー・シーケンス・モデルを用いて,構造化予測モデルへの攻撃を学習する,新規で統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-04T15:54:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。