論文の概要: Feature Reconstruction Attacks and Countermeasures of DNN training in
Vertical Federated Learning
- arxiv url: http://arxiv.org/abs/2210.06771v1
- Date: Thu, 13 Oct 2022 06:23:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 17:02:55.061670
- Title: Feature Reconstruction Attacks and Countermeasures of DNN training in
Vertical Federated Learning
- Title(参考訳): 縦型フェデレーション学習における特徴再構成攻撃とDNNトレーニング対策
- Authors: Peng Ye, Zhifeng Jiang, Wei Wang, Bo Li, Baochun Li
- Abstract要約: 統合学習(FL)は、サイロ化されたデータに対する安全な協調トレーニングを促進するために、組織の中で、その垂直な形で、ますます多くデプロイされている。
VFLの採用が増加しているにもかかわらず、アクティブパーティが受動的パーティから特徴データを抽出できるかどうか、またどのようにして機能データを抽出できるかは、ほとんど不明である。
本稿では,VFLにおけるDNNトレーニングの特徴的セキュリティ問題について検討する。
- 参考スコア(独自算出の注目度): 39.85691324350159
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) has increasingly been deployed, in its vertical form,
among organizations to facilitate secure collaborative training over siloed
data. In vertical FL (VFL), participants hold disjoint features of the same set
of sample instances. Among them, only one has labels. This participant, known
as the active party, initiates the training and interacts with the other
participants, known as the passive parties. Despite the increasing adoption of
VFL, it remains largely unknown if and how the active party can extract feature
data from the passive party, especially when training deep neural network (DNN)
models.
This paper makes the first attempt to study the feature security problem of
DNN training in VFL. We consider a DNN model partitioned between active and
passive parties, where the latter only holds a subset of the input layer and
exhibits some categorical features of binary values. Using a reduction from the
Exact Cover problem, we prove that reconstructing those binary features is
NP-hard. Through analysis, we demonstrate that, unless the feature dimension is
exceedingly large, it remains feasible, both theoretically and practically, to
launch a reconstruction attack with an efficient search-based algorithm that
prevails over current feature protection techniques. To address this problem,
we develop a novel feature protection scheme against the reconstruction attack
that effectively misleads the search to some pre-specified random values. With
an extensive set of experiments, we show that our protection scheme sustains
the feature reconstruction attack in various VFL applications at no expense of
accuracy loss.
- Abstract(参考訳): フェデレーション学習(federated learning, fl)は、サイロ化されたデータに対するセキュアなコラボレーショントレーニングを促進するために、垂直的な形で組織に展開されるようになっている。
垂直FL(VFL)では、参加者は同じサンプルの集合の解離した特徴を持つ。
中にはラベルが1つだけある。
この参加者はアクティブパーティと呼ばれ、トレーニングを開始し、受動的パーティーとして知られる他の参加者と対話する。
VFLの採用が増加しているにもかかわらず、特にディープニューラルネットワーク(DNN)モデルのトレーニングにおいて、アクティブパーティが受動的パーティから特徴データを抽出できるかどうか、またその方法がほとんど不明である。
本稿では,VFLにおけるDNNトレーニングの特徴的セキュリティ問題について検討する。
我々は、DNNモデルを能動的と受動的に分割し、後者は入力層のサブセットのみを保持し、バイナリ値の分類的特徴を示す。
厳密なカバー問題からの削減を用いて,これらのバイナリ機能の再構築がnp困難であることを証明した。
分析により, 特徴次元が極めて大きい場合を除き, 現在の特徴保護技術に勝る効率的な検索ベースアルゴリズムを用いて, 理論上, 実質的にもリコンストラクションアタックを起動することは可能であることを実証する。
この問題に対処するため,我々は,事前指定した乱数値に対する探索を効果的に誤解する,復元攻撃に対する新たな特徴保護手法を開発した。
広範囲な実験により, 各種VFLアプリケーションにおける特徴再構成攻撃を, 精度の低下を伴わずに維持できることを示す。
関連論文リスト
- Pre-trained Trojan Attacks for Visual Recognition [106.13792185398863]
PVM(Pre-trained Vision Model)は、下流タスクを微調整する際、例外的なパフォーマンスのため、主要なコンポーネントとなっている。
本稿では,PVMにバックドアを埋め込んだトロイの木馬攻撃を提案する。
バックドア攻撃の成功において、クロスタスクアクティベーションとショートカット接続がもたらす課題を強調します。
論文 参考訳(メタデータ) (2023-12-23T05:51:40Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Boosting Adversarial Transferability via Fusing Logits of Top-1
Decomposed Feature [36.78292952798531]
本稿では,Singular Value Decomposition(SVD)に基づく特徴レベル攻撃法を提案する。
提案手法は,中間層特徴量より大きい特異値に付随する固有ベクトルがより優れた一般化と注意特性を示すという発見に着想を得たものである。
論文 参考訳(メタデータ) (2023-05-02T12:27:44Z) - Privacy Against Inference Attacks in Vertical Federated Learning [13.234975857626749]
垂直的フェデレーション学習(英語版)は、真のクラスラベルにアクセス可能なアクティブ・パーティが、受動的パーティーからより多くの特徴を活用して分類モデルを構築したいと考える場合に考慮される。
いくつかの推論攻撃手法が提案されており、敵、すなわちアクティブ・パーティは、敏感な情報と見なされるパッシブ・パーティの特徴を再構築することができる。
防御機構として、2つのプライバシ保護スキームが提案され、VFLがアクティブパーティにもたらすすべての利益を保ちながら、敵の再構築攻撃を悪化させる。
論文 参考訳(メタデータ) (2022-07-24T18:33:52Z) - Secure Forward Aggregation for Vertical Federated Neural Networks [25.059312670812215]
我々は、垂直フェデレートラーニング(VFL)におけるよく知られたニューラルネットワークフレームワークであるSplitNNについて研究する。
SplitNNは、生データの代わりに変換データを使ってモデルを共同で訓練するため、モデルパフォーマンスの損失に悩まされる。
セキュリティフォワード・アグリゲーション(SFA)と呼ばれる新しいニューラルネットワークプロトコルをVFLで提案する。
実験の結果,SFAのネットワークはデータセキュリティと高モデル性能の両方を実現していることがわかった。
論文 参考訳(メタデータ) (2022-06-28T03:13:26Z) - Enhancing Adversarial Training with Feature Separability [52.39305978984573]
本稿では,特徴分離性を備えた対人訓練(ATFS)により,クラス内特徴の類似性を向上し,クラス間特徴分散を増大させることができる,新たな対人訓練グラフ(ATG)を提案する。
包括的な実験を通じて、提案したATFSフレームワークがクリーンかつロバストなパフォーマンスを著しく改善することを示した。
論文 参考訳(メタデータ) (2022-05-02T04:04:23Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Defending Label Inference and Backdoor Attacks in Vertical Federated
Learning [11.319694528089773]
共同学習では、好奇心が強いパリティは正直かもしれないが、推論攻撃を通じて他人の個人データを推測しようとしている。
本稿では,サンプルごとの勾配から,プライベートラベルを再構築可能であることを示す。
本稿では、オートエンコーダとエントロピー正規化に基づく、混乱型オートエンコーダ(CoAE)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-12-10T09:32:09Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - Mitigating the Impact of Adversarial Attacks in Very Deep Networks [10.555822166916705]
Deep Neural Network (DNN)モデルにはセキュリティに関する脆弱性がある。
データ中毒による摂動攻撃は、モデルに偽データを注入する複雑な敵対攻撃である。
そこで本研究では,攻撃に依存しない防御手法を提案する。
論文 参考訳(メタデータ) (2020-12-08T21:25:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。