論文の概要: FLAT: Latent-Driven Arbitrary-Target Backdoor Attacks in Federated Learning
- arxiv url: http://arxiv.org/abs/2508.04064v1
- Date: Wed, 06 Aug 2025 03:54:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.537545
- Title: FLAT: Latent-Driven Arbitrary-Target Backdoor Attacks in Federated Learning
- Title(参考訳): FLAT:フェデレートラーニングにおける潜在駆動型任意ターゲットバックドアアタック
- Authors: Tuan Nguyen, Khoa D Doan, Kok-Seng Wong,
- Abstract要約: フェデレートラーニング(FL)は、バックドア攻撃に対して脆弱である。
既存のほとんどのメソッドは固定パターンや単一ターゲットトリガによって制限されている。
FLAT(FL Arbitrary-Target Attack)は,潜伏駆動型条件付きオートエンコーダを利用した新たなバックドアアタックである。
- 参考スコア(独自算出の注目度): 7.655329509535266
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated learning (FL) is vulnerable to backdoor attacks, yet most existing methods are limited by fixed-pattern or single-target triggers, making them inflexible and easier to detect. We propose FLAT (FL Arbitrary-Target Attack), a novel backdoor attack that leverages a latent-driven conditional autoencoder to generate diverse, target-specific triggers as needed. By introducing a latent code, FLAT enables the creation of visually adaptive and highly variable triggers, allowing attackers to select arbitrary targets without retraining and to evade conventional detection mechanisms. Our approach unifies attack success, stealth, and diversity within a single framework, introducing a new level of flexibility and sophistication to backdoor attacks in FL. Extensive experiments show that FLAT achieves high attack success and remains robust against advanced FL defenses. These results highlight the urgent need for new defense strategies to address latent-driven, multi-target backdoor threats in federated settings.
- Abstract(参考訳): フェデレートラーニング(FL)はバックドア攻撃に弱いが、既存のほとんどのメソッドは固定パターンや単一ターゲットトリガーによって制限されており、柔軟性がなく、検出が容易である。
FLAT(FL Arbitrary-Target Attack)は、潜在駆動型条件付きオートエンコーダを利用して、必要に応じて多様なターゲット固有のトリガを生成する新しいバックドアアタックである。
潜在コードを導入することで、FLATは視覚的適応性と高度に可変なトリガーの作成を可能にし、攻撃者は再トレーニングせずに任意のターゲットを選択することができ、従来の検出メカニズムを回避することができる。
当社のアプローチは,単一フレームワーク内での攻撃成功,ステルス,多様性を統一し,FLのバックドア攻撃に新たな柔軟性と洗練をもたらす。
広範囲な実験により、FLATは高い攻撃成功を達成し、先進的なFL防御に対して頑強であることが示されている。
これらの結果は、連邦環境における潜在的かつ多目標なバックドア脅威に対処するための新しい防衛戦略の必要性を浮き彫りにする。
関連論文リスト
- SPA: Towards More Stealth and Persistent Backdoor Attacks in Federated Learning [10.924427077035915]
フェデレートラーニング(FL)は、プライバシ保護のための分散機械学習の主要なパラダイムとして登場したが、FLの分散特性にはユニークなセキュリティ上の課題が伴っている。
特徴空間アライメントを活用することによって従来のアプローチから離れるSPAという,斬新でステルス的なバックドアアタックフレームワークを提案する。
本研究は,FLにおけるバックドア脅威の高度化に緊急注意を喚起し,高度な機能レベル防衛技術の必要性を強調した。
論文 参考訳(メタデータ) (2025-06-26T01:33:14Z) - Robust Anti-Backdoor Instruction Tuning in LVLMs [53.766434746801366]
大規模視覚言語モデル(LVLM)のための軽量で認証に依存しない防御フレームワークについて紹介する。
私たちのフレームワークは、命令チューニングの下で、アダプタモジュールとテキスト埋め込み層のみを微調整します。
Flickr30kとMSCOCOに対する7つの攻撃に対する実験は、我々の攻撃の成功率をほぼゼロに低下させることを示した。
論文 参考訳(メタデータ) (2025-06-04T01:23:35Z) - ELBA-Bench: An Efficient Learning Backdoor Attacks Benchmark for Large Language Models [55.93380086403591]
生成可能な大規模言語モデルは、バックドアアタックに対して脆弱である。
$textitELBA-Bench$は、パラメータを効率的に微調整することで攻撃者がバックドアを注入できるようにする。
$textitELBA-Bench$は1300以上の実験を提供する。
論文 参考訳(メタデータ) (2025-02-22T12:55:28Z) - Non-Cooperative Backdoor Attacks in Federated Learning: A New Threat Landscape [7.00762739959285]
プライバシ保護モデルトレーニングのためのフェデレートラーニング(FL)は、バックドア攻撃の影響を受けやすいままである。
本研究は,発展途上のFL景観におけるバックドア攻撃に対する堅牢な防御の必要性を強調した。
論文 参考訳(メタデータ) (2024-07-05T22:03:13Z) - Learning diverse attacks on large language models for robust red-teaming and safety tuning [126.32539952157083]
レッドチーム、あるいは有害な応答を誘発するプロンプトの特定は、大きな言語モデルの安全なデプロイを保証するための重要なステップである。
新規性と多様性を優先する明確な規則化であっても、既存のアプローチはモード崩壊または効果的な攻撃を発生させることができないことを示す。
我々は,GFlowNetの微調整と二次平滑化フェーズを用いて,多種多様な効果的な攻撃プロンプトを生成するために攻撃モデルを訓練することを提案する。
論文 参考訳(メタデータ) (2024-05-28T19:16:17Z) - Backdoor Contrastive Learning via Bi-level Trigger Optimization [45.41485634654881]
コントラスト学習(CL)は、教師なし表現学習における顕著な能力により、大きな注目を集めている。
最近の研究により、CLのバックドア攻撃に対する脆弱性が明らかになった。
本稿では,この目的を達成するための二段階最適化手法を提案する。
論文 参考訳(メタデータ) (2024-04-11T15:55:53Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - FTA: Stealthy and Adaptive Backdoor Attack with Flexible Triggers on
Federated Learning [11.636353298724574]
我々は,新たなステルスで堅牢なバックドア攻撃を,連邦学習(FL)防衛に対して提案する。
我々は、許容できない柔軟なトリガーパターンで良質なサンプルを操作することを学べる生成的トリガー関数を構築した。
我々のトリガージェネレータは学習を継続し、異なるラウンドにまたがって適応し、グローバルモデルの変化に適応できるようにします。
論文 参考訳(メタデータ) (2023-08-31T20:25:54Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - Meta Federated Learning [57.52103907134841]
フェデレートラーニング(FL)は、時間的敵攻撃の訓練に弱い。
本稿では,メタフェデレーション学習(Meta Federated Learning, Meta-FL)を提案する。
論文 参考訳(メタデータ) (2021-02-10T16:48:32Z) - Dynamic backdoor attacks against federated learning [0.5482532589225553]
Federated Learning(FL)は、データプライバシとセキュリティを損なうことなく、何百万人もの参加者が協力してモデルをトレーニングできる、新しい機械学習フレームワークである。
本稿では、FL設定下での動的バックドア攻撃に着目し、敵の目標は、ターゲットタスクにおけるモデルの性能を低下させることである。
我々の知る限りでは、FL設定下での動的バックドア攻撃の研究に焦点を当てた最初の論文である。
論文 参考訳(メタデータ) (2020-11-15T01:32:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。