論文の概要: Practical and General Backdoor Attacks against Vertical Federated
Learning
- arxiv url: http://arxiv.org/abs/2306.10746v1
- Date: Mon, 19 Jun 2023 07:30:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 18:45:13.717029
- Title: Practical and General Backdoor Attacks against Vertical Federated
Learning
- Title(参考訳): 垂直連合学習に対する実践的および一般的バックドア攻撃
- Authors: Yuexin Xuan, Xiaojun Chen, Zhendong Zhao, Bisheng Tang, Ye Dong
- Abstract要約: Federated Learning(FL)は、データのプライバシを公開することなく、複数の組織間でのデータコラボレーションを促進することを目的としている。
BadVFLは、ラベル情報なしで被害者モデルにバックドアトリガーを注入するための、新しく実用的なアプローチである。
BadVFLの攻撃成功率は93%を超え、毒殺率は1%に過ぎなかった。
- 参考スコア(独自算出の注目度): 3.587415228422117
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL), which aims to facilitate data collaboration across
multiple organizations without exposing data privacy, encounters potential
security risks. One serious threat is backdoor attacks, where an attacker
injects a specific trigger into the training dataset to manipulate the model's
prediction. Most existing FL backdoor attacks are based on horizontal federated
learning (HFL), where the data owned by different parties have the same
features. However, compared to HFL, backdoor attacks on vertical federated
learning (VFL), where each party only holds a disjoint subset of features and
the labels are only owned by one party, are rarely studied. The main challenge
of this attack is to allow an attacker without access to the data labels, to
perform an effective attack. To this end, we propose BadVFL, a novel and
practical approach to inject backdoor triggers into victim models without label
information. BadVFL mainly consists of two key steps. First, to address the
challenge of attackers having no knowledge of labels, we introduce a SDD module
that can trace data categories based on gradients. Second, we propose a SDP
module that can improve the attack's effectiveness by enhancing the decision
dependency between the trigger and attack target. Extensive experiments show
that BadVFL supports diverse datasets and models, and achieves over 93% attack
success rate with only 1% poisoning rate.
- Abstract(参考訳): フェデレーション学習(FL)は、データプライバシを公開することなく、複数の組織間でのデータコラボレーションを促進することを目的としており、潜在的なセキュリティリスクに直面している。
重大な脅威の1つはバックドア攻撃であり、攻撃者はモデルの予測を操作するためにトレーニングデータセットに特定のトリガーを注入する。
既存のflバックドア攻撃のほとんどは、異なる当事者が所有するデータが同じ機能を持つ水平連合学習(hfl)に基づいている。
しかし、HFLと比較して、各パーティが特徴の相違部分のみを保持し、ラベルが1つのパーティのみが所有する、垂直連合学習(VFL)に対するバックドア攻撃はめったに研究されない。
この攻撃の主な課題は、攻撃者がデータラベルにアクセスせずに効果的な攻撃を行うことである。
この目的のために我々はbadvflを提案する。badvflはラベル情報なしで被害者モデルにバックドアトリガーを注入する新しい実用的な手法である。
BadVFLは主に2つの重要なステップから構成される。
まず,ラベルの知識を持たない攻撃者の課題に対処するため,勾配に基づくデータカテゴリをトレース可能なsddモジュールを導入する。
次に,攻撃目標とトリガー間の決定依存性を高めることにより,攻撃の有効性を向上させるSDPモジュールを提案する。
広範な実験により、badvflは多様なデータセットとモデルをサポートし、わずか1%の中毒率で93%以上の攻撃成功率を達成した。
関連論文リスト
- Non-Cooperative Backdoor Attacks in Federated Learning: A New Threat Landscape [7.00762739959285]
プライバシ保護モデルトレーニングのためのフェデレートラーニング(FL)は、バックドア攻撃の影響を受けやすいままである。
本研究は,発展途上のFL景観におけるバックドア攻撃に対する堅牢な防御の必要性を強調した。
論文 参考訳(メタデータ) (2024-07-05T22:03:13Z) - Can We Trust the Unlabeled Target Data? Towards Backdoor Attack and Defense on Model Adaptation [120.42853706967188]
本研究は, よく設計された毒物標的データによるモデル適応に対するバックドア攻撃の可能性を探る。
既存の適応アルゴリズムと組み合わせたMixAdaptというプラグイン・アンド・プレイ方式を提案する。
論文 参考訳(メタデータ) (2024-01-11T16:42:10Z) - Does Few-shot Learning Suffer from Backdoor Attacks? [63.9864247424967]
数発の学習がバックドアアタックに対して脆弱であることは明らかです。
本手法は,FSLタスクにおける攻撃成功率(ASR)を,異なる数発の学習パラダイムで示す。
この研究は、数発の学習がまだバックドア攻撃に悩まされており、そのセキュリティに注意を払う必要があることを明らかにしている。
論文 参考訳(メタデータ) (2023-12-31T06:43:36Z) - One-bit Flip is All You Need: When Bit-flip Attack Meets Model Training [54.622474306336635]
メモリフォールトインジェクション技術を利用したビットフリップ攻撃(BFA)と呼ばれる新たな重み修正攻撃が提案された。
本稿では,高リスクモデルを構築するための訓練段階に敵が関与する,訓練支援ビットフリップ攻撃を提案する。
論文 参考訳(メタデータ) (2023-08-12T09:34:43Z) - DABS: Data-Agnostic Backdoor attack at the Server in Federated Learning [14.312593000209693]
フェデレートラーニング(FL)は、中央サーバの協調の下で、分散デバイスからローカルモデルを集約することで、グローバルモデルをトレーニングしようとする試みである。
多数の異種デバイスが存在するため、FLは様々な攻撃、特にステルスなバックドア攻撃に対して脆弱である。
我々は,サーバがグローバルモデルを直接変更して,FLシステムにバックドアを施すような,FLの新たなアタックモデル,すなわち,サーバにおけるData-Agnostic Backdoor attack(DABS)を提案する。
論文 参考訳(メタデータ) (2023-05-02T09:04:34Z) - BadVFL: Backdoor Attacks in Vertical Federated Learning [22.71527711053385]
フェデレートラーニング(FL)は、複数のパーティがデータを共有することなく、機械学習モデルを協調的にトレーニングすることを可能にする。
本稿では,VFLのロバスト性,特にバックドアアタックに焦点をあてる。
VFLでは,ラベル推論とバックドアフェーズという2つのフェーズからなる第1種クリーンラベルバックドアアタックが提案されている。
論文 参考訳(メタデータ) (2023-04-18T09:22:32Z) - Revisiting Personalized Federated Learning: Robustness Against Backdoor
Attacks [53.81129518924231]
pFLフレームワークにおけるバックドア攻撃の最初の研究を行う。
モデル共有部分を持つpFL法は,バックドア攻撃に対するロバスト性を大幅に向上させることができることを示す。
本稿では,バックドア攻撃に対する防御性能を実証的に向上する軽量防御手法Simple-Tuningを提案する。
論文 参考訳(メタデータ) (2023-02-03T11:58:14Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - FL-Defender: Combating Targeted Attacks in Federated Learning [7.152674461313707]
フェデレートラーニング(FL)は、グローバル機械学習モデルを、参加する労働者のセット間で分散されたローカルデータから学習することを可能にする。
FLは、学習モデルの完全性に悪影響を及ぼす標的の毒殺攻撃に対して脆弱である。
FL標的攻撃に対抗する手段として,textitFL-Defenderを提案する。
論文 参考訳(メタデータ) (2022-07-02T16:04:46Z) - Defending Label Inference and Backdoor Attacks in Vertical Federated
Learning [11.319694528089773]
共同学習では、好奇心が強いパリティは正直かもしれないが、推論攻撃を通じて他人の個人データを推測しようとしている。
本稿では,サンプルごとの勾配から,プライベートラベルを再構築可能であることを示す。
本稿では、オートエンコーダとエントロピー正規化に基づく、混乱型オートエンコーダ(CoAE)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-12-10T09:32:09Z) - Meta Federated Learning [57.52103907134841]
フェデレートラーニング(FL)は、時間的敵攻撃の訓練に弱い。
本稿では,メタフェデレーション学習(Meta Federated Learning, Meta-FL)を提案する。
論文 参考訳(メタデータ) (2021-02-10T16:48:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。