論文の概要: Defending Label Inference and Backdoor Attacks in Vertical Federated
Learning
- arxiv url: http://arxiv.org/abs/2112.05409v1
- Date: Fri, 10 Dec 2021 09:32:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-13 15:32:01.516913
- Title: Defending Label Inference and Backdoor Attacks in Vertical Federated
Learning
- Title(参考訳): 垂直的フェデレーション学習におけるラベル推論とバックドア攻撃
- Authors: Yang Liu, Zhihao Yi, Yan Kang, Yuanqin He, Wenhan Liu, Tianyuan Zou,
Qiang Yang
- Abstract要約: 共同学習では、好奇心が強いパリティは正直かもしれないが、推論攻撃を通じて他人の個人データを推測しようとしている。
本稿では,サンプルごとの勾配から,プライベートラベルを再構築可能であることを示す。
本稿では、オートエンコーダとエントロピー正規化に基づく、混乱型オートエンコーダ(CoAE)と呼ばれる新しい手法を提案する。
- 参考スコア(独自算出の注目度): 11.319694528089773
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In collaborative learning settings like federated learning, curious parities
might be honest but are attempting to infer other parties' private data through
inference attacks while malicious parties might manipulate the learning process
for their own purposes through backdoor attacks. However, most existing works
only consider the federated learning scenario where data are partitioned by
samples (HFL). The feature-partitioned federated learning (VFL) can be another
important scenario in many real-world applications. Attacks and defenses in
such scenarios are especially challenging when the attackers and the defenders
are not able to access the features or model parameters of other participants.
Previous works have only shown that private labels can be reconstructed from
per-sample gradients. In this paper, we first show that private labels can be
reconstructed when only batch-averaged gradients are revealed, which is against
the common presumption. In addition, we show that a passive party in VFL can
even replace its corresponding labels in the active party with a target label
through a gradient-replacement attack. To defend against the first attack, we
introduce a novel technique termed confusional autoencoder (CoAE), based on
autoencoder and entropy regularization. We demonstrate that label inference
attacks can be successfully blocked by this technique while hurting less main
task accuracy compared to existing methods. Our CoAE technique is also
effective in defending the gradient-replacement backdoor attack, making it an
universal and practical defense strategy with no change to the original VFL
protocol. We demonstrate the effectiveness of our approaches under both
two-party and multi-party VFL settings. To the best of our knowledge, this is
the first systematic study to deal with label inference and backdoor attacks in
the feature-partitioned federated learning framework.
- Abstract(参考訳): フェデレート学習のような協調学習環境では、好奇心の強いパリティは正直だが、悪意のある当事者がバックドア攻撃を通じて学習プロセスを操作できる一方で、推論攻撃によって他人のプライベートデータを推論しようとしている。
しかしながら、既存のほとんどの作品は、データがサンプル(hfl)によって分割されるフェデレーション学習シナリオのみを考慮に入れている。
VFL(Feature-partitioned Federated Learning)は、多くの現実世界アプリケーションにおいて重要なシナリオである。
このようなシナリオにおける攻撃と防御は、攻撃者と防御者が他の参加者の特徴やモデルパラメータにアクセスできない場合、特に難しい。
以前の研究では、プライベートラベルをサンプル毎の勾配から再構築できることしか示されていない。
本稿では,まず,一般的な推定値に逆らうバッチ平均勾配のみを明らかにした場合,プライベートラベルを再構成可能であることを示す。
さらに、vflの受動的パーティは、勾配再配置攻撃によって、アクティブパーティ内の対応するラベルをターゲットラベルに置き換えることさえ可能であることを示した。
最初の攻撃から防御するために、オートエンコーダとエントロピー正規化に基づく混乱型オートエンコーダ(CoAE)と呼ばれる新しい手法を導入する。
この手法によってラベル推論攻撃をうまくブロックでき、既存の手法に比べてタスクの精度を損なうことが実証された。
また,本手法は勾配再配置バックドアアタックの防御にも有効であり,vflプロトコルの変更を伴わない,普遍的かつ実用的な防衛戦略である。
両立VFL設定と多人数VFL設定によるアプローチの有効性を示す。
我々の知る限りでは、この研究は、機能分割型フェデレーション学習フレームワークにおけるラベル推論とバックドアアタックを扱う最初の体系的な研究である。
関連論文リスト
- Training on Fake Labels: Mitigating Label Leakage in Split Learning via Secure Dimension Transformation [10.404379188947383]
ふたつのパーティ分割学習は、ラベル推論攻撃を生き残ることが証明されている。
そこで本稿では,既存のラベル推論攻撃を防御する二者分割学習手法を提案する。
論文 参考訳(メタデータ) (2024-10-11T09:25:21Z) - KDk: A Defense Mechanism Against Label Inference Attacks in Vertical Federated Learning [2.765106384328772]
Vertical Federated Learning (VFL) のシナリオでは、サンプルのラベルは、ラベル所有者である集約サーバを除くすべてのパーティからプライベートに保持される。
最近の研究で、サーバからボトムモデルに返される勾配情報を利用することで、敵がプライベートラベルを推測できることが判明した。
我々は,KDkという,知識蒸留とk匿名を組み合わせて防御機構を提供する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-18T17:51:02Z) - Label Inference Attacks against Node-level Vertical Federated GNNs [26.80658307067889]
ゼロ・バックグラウンドの知識戦略を用いて,VFL (Vertical Federated Learning) のラベル推論攻撃について検討した。
提案した攻撃であるBlindSageは、実験で素晴らしい結果をもたらし、ほとんどのケースで100%近い精度を実現しています。
論文 参考訳(メタデータ) (2023-08-04T17:04:58Z) - Practical and General Backdoor Attacks against Vertical Federated
Learning [3.587415228422117]
Federated Learning(FL)は、データのプライバシを公開することなく、複数の組織間でのデータコラボレーションを促進することを目的としている。
BadVFLは、ラベル情報なしで被害者モデルにバックドアトリガーを注入するための、新しく実用的なアプローチである。
BadVFLの攻撃成功率は93%を超え、毒殺率は1%に過ぎなかった。
論文 参考訳(メタデータ) (2023-06-19T07:30:01Z) - Mutual Information Regularization for Vertical Federated Learning [6.458078197870505]
Vertical Federated Learning (VFL)は、データプライバシと安全性を保護しながら協調学習を可能にするために、現実世界のアプリケーションで広く利用されている。
以前の研究によると、VFLのラベル(パッシブパーティ)を持たない当事者は、その当事者が所有する機密ラベル情報をラベル(アクティブパーティ)で推測したり、VFLに対するバックドアアタックを実行することができる。
本稿では,特徴とラベル,中間出力を含むプライベート生データ間の相互情報を制限し,モデルユーティリティとプライバシのトレードオフを改善するための汎用防衛手法を提案する。
論文 参考訳(メタデータ) (2023-01-01T02:03:34Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Protecting Split Learning by Potential Energy Loss [70.81375125791979]
我々は、分割学習の前方埋め込みからのプライバシー漏洩に焦点を当てる。
我々は、前方埋め込みをより「複雑化」させるためのエネルギー損失の可能性を提案する。
論文 参考訳(メタデータ) (2022-10-18T06:21:11Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - Meta Federated Learning [57.52103907134841]
フェデレートラーニング(FL)は、時間的敵攻撃の訓練に弱い。
本稿では,メタフェデレーション学習(Meta Federated Learning, Meta-FL)を提案する。
論文 参考訳(メタデータ) (2021-02-10T16:48:32Z) - Label-Only Membership Inference Attacks [67.46072950620247]
ラベルのみのメンバシップ推論攻撃を導入する。
我々の攻撃は、摂動下でのモデルが予測するラベルの堅牢性を評価する。
差分プライバシーと(強い)L2正規化を備えたトレーニングモデルは、唯一知られている防衛戦略である。
論文 参考訳(メタデータ) (2020-07-28T15:44:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。