論文の概要: Is the Trigger Essential? A Feature-Based Triggerless Backdoor Attack in Vertical Federated Learning
- arxiv url: http://arxiv.org/abs/2602.20593v1
- Date: Tue, 24 Feb 2026 06:33:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.629388
- Title: Is the Trigger Essential? A Feature-Based Triggerless Backdoor Attack in Vertical Federated Learning
- Title(参考訳): トリガーは必須か? 縦型フェデレーション学習における特徴に基づくトリガーレスバックドアアタック
- Authors: Yige Liu, Yiwei Lou, Che Wang, Yongzhi Cao, Hanpin Wang,
- Abstract要約: 本稿では,垂直統合学習(VFL)における新たなバックドア攻撃経路を提案する。
ターゲットとなるバックドア攻撃のラベル推論、増幅と摂動機構を備えた毒の発生、攻撃を実装するバックドア実行の3つのモジュールで構成されている。
我々の攻撃は3つのベースラインバックドア攻撃を2~50倍に上回り、メインタスクに最小限の影響を与えます。
- 参考スコア(独自算出の注目度): 21.02731389406564
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a distributed collaborative machine learning paradigm, vertical federated learning (VFL) allows multiple passive parties with distinct features and one active party with labels to collaboratively train a model. Although it is known for the privacy-preserving capabilities, VFL still faces significant privacy and security threats from backdoor attacks. Existing backdoor attacks typically involve an attacker implanting a trigger into the model during the training phase and executing the attack by adding the trigger to the samples during the inference phase. However, in this paper, we find that triggers are not essential for backdoor attacks in VFL. In light of this, we disclose a new backdoor attack pathway in VFL by introducing a feature-based triggerless backdoor attack. This attack operates under a more stringent security assumption, where the attacker is honest-but-curious rather than malicious during the training phase. It comprises three modules: label inference for the targeted backdoor attack, poison generation with amplification and perturbation mechanisms, and backdoor execution to implement the attack. Extensive experiments on five benchmark datasets demonstrate that our attack outperforms three baseline backdoor attacks by 2 to 50 times while minimally impacting the main task. Even in VFL scenarios with 32 passive parties and only one set of auxiliary data, our attack maintains high performance. Moreover, when confronted with distinct defense strategies, our attack remains largely unaffected and exhibits strong robustness. We hope that the disclosure of this triggerless backdoor attack pathway will encourage the community to revisit security threats in VFL scenarios and inspire researchers to develop more robust and practical defense strategies.
- Abstract(参考訳): 分散コラボレーティブ機械学習パラダイムとして、垂直連合学習(VFL)は、異なる特徴を持つ複数の受動的パーティと、ラベルを持つアクティブパーティが協力してモデルをトレーニングすることを可能にする。
プライバシー保護機能で知られているが、VFLはバックドア攻撃による重大なプライバシーとセキュリティの脅威に直面している。
既存のバックドア攻撃は通常、トレーニングフェーズ中にモデルにトリガーを注入し、推論フェーズ中にサンプルにトリガーを追加することでアタックを実行する。
しかし,本稿では,VFLのバックドア攻撃にはトリガーが必須でないことが判明した。
これを踏まえて,機能ベースのトリガレスバックドアアタックを導入することで,VFLの新たなバックドアアタックパスを開示する。
この攻撃はより厳格なセキュリティ仮定の下で動作し、攻撃者はトレーニングフェーズ中に悪意があるのではなく、誠実だが正確である。
ターゲットとなるバックドア攻撃のラベル推論、増幅と摂動機構を備えた毒の発生、攻撃を実装するバックドア実行の3つのモジュールで構成されている。
5つのベンチマークデータセットに対する大規模な実験により、我々の攻撃は3つのベースラインバックドア攻撃を2倍から50倍に上回り、メインタスクに最小限の影響を及ぼすことが示された。
32の受動的パーティと1組の補助データを持つVFLシナリオであっても、攻撃は高い性能を維持している。
さらに、異なる防衛戦略に直面する場合、我々の攻撃は影響を受けておらず、強い堅牢性を示す。
我々は、このトリガーレスバックドア攻撃経路の開示により、コミュニティがVFLシナリオのセキュリティ脅威を再考し、研究者により堅牢で実用的な防衛戦略を開発するよう促すことを期待している。
関連論文リスト
- Bad-PFL: Exploring Backdoor Attacks against Personalized Federated Learning [22.074601909696298]
連合学習(PFL)により、各クライアントはプライベートなパーソナライズされたモデルを維持でき、クライアント固有の知識を利用できる。
Bad-PFLは、私たちのトリガーとして自然データからの機能を取り入れ、パーソナライズされたモデルでその長寿を保証します。
3つのベンチマークデータセットに対する大規模な実験は、様々なPFL手法に対する攻撃の優れた性能を示す。
論文 参考訳(メタデータ) (2025-01-22T09:12:16Z) - A4O: All Trigger for One sample [10.78460062665304]
提案されたバックドアディフェンダーは、トリガーが統一された方法で現れるという仮定に依存することが多い。
本稿では,この単純な仮定が抜け穴を生じさせ,より洗練されたバックドア攻撃を回避できることを示す。
我々は,複数の種類のバックドアトリガーを組み込んだ新たなバックドア攻撃機構を設計し,ステルスネスと有効性に着目した。
論文 参考訳(メタデータ) (2025-01-13T10:38:58Z) - Non-Cooperative Backdoor Attacks in Federated Learning: A New Threat Landscape [7.00762739959285]
プライバシ保護モデルトレーニングのためのフェデレートラーニング(FL)は、バックドア攻撃の影響を受けやすいままである。
本研究は,発展途上のFL景観におけるバックドア攻撃に対する堅牢な防御の必要性を強調した。
論文 参考訳(メタデータ) (2024-07-05T22:03:13Z) - Shortcuts Everywhere and Nowhere: Exploring Multi-Trigger Backdoor Attacks [63.89012304595422]
ディープニューラルネットワーク(DNN)の事前トレーニングとデプロイに対して、バックドア攻撃は重大な脅威となっている。
本研究では,マルチトリガーバックドア攻撃(MTBA)の概念について検討し,複数の敵が異なる種類のトリガーを利用して同一のデータセットを毒する。
論文 参考訳(メタデータ) (2024-01-27T04:49:37Z) - Does Few-shot Learning Suffer from Backdoor Attacks? [63.9864247424967]
数発の学習がバックドアアタックに対して脆弱であることは明らかです。
本手法は,FSLタスクにおける攻撃成功率(ASR)を,異なる数発の学習パラダイムで示す。
この研究は、数発の学習がまだバックドア攻撃に悩まされており、そのセキュリティに注意を払う必要があることを明らかにしている。
論文 参考訳(メタデータ) (2023-12-31T06:43:36Z) - Practical and General Backdoor Attacks against Vertical Federated
Learning [3.587415228422117]
Federated Learning(FL)は、データのプライバシを公開することなく、複数の組織間でのデータコラボレーションを促進することを目的としている。
BadVFLは、ラベル情報なしで被害者モデルにバックドアトリガーを注入するための、新しく実用的なアプローチである。
BadVFLの攻撃成功率は93%を超え、毒殺率は1%に過ぎなかった。
論文 参考訳(メタデータ) (2023-06-19T07:30:01Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Hidden Killer: Invisible Textual Backdoor Attacks with Syntactic Trigger [48.59965356276387]
本稿では,テキストバックドア攻撃の引き金として構文構造を用いることを提案する。
我々は、トリガーベースアタック法が同等のアタック性能を達成できることを示すため、広範囲な実験を行った。
また,本研究の結果から,テキストバックドア攻撃の重篤さと有害性も明らかとなった。
論文 参考訳(メタデータ) (2021-05-26T08:54:19Z) - Defending against Backdoors in Federated Learning with Robust Learning
Rate [25.74681620689152]
フェデレートラーニング(FL)は、エージェントの集合が、潜在的に敏感なデータを共有せずに、協調的にモデルをトレーニングすることを可能にする。
バックドア攻撃において、敵はトレーニング中にモデルにバックドア機能を埋め込もうとする。
FLプロトコルの変更を最小限に抑える軽量ディフェンスを提案する。
論文 参考訳(メタデータ) (2020-07-07T23:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。