論文の概要: Prototype Guided Backdoor Defense
- arxiv url: http://arxiv.org/abs/2503.20925v1
- Date: Wed, 26 Mar 2025 18:58:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-28 12:54:57.554883
- Title: Prototype Guided Backdoor Defense
- Title(参考訳): プロトタイプガイド付バックドアディフェンス
- Authors: Venkat Adithya Amula, Sunayana Samavedam, Saurabh Saini, Avani Gupta, Narayanan P J,
- Abstract要約: 深層学習モデルは、悪意のある攻撃者がトレーニングデータの小さなサブセットを、誤分類を引き起こすエムトリガーで妨害する、バックドアアタックの影響を受けやすい。
イメージを操作する必要なしに容易に実現可能なセマンティックトリガーなど、さまざまなトリガーが使用されている。
本稿では,様々なトリガタイプにまたがる堅牢なポストホックディフェンスであるPrototype Guided Backdoor Defense (PGBD)を提案する。
- 参考スコア(独自算出の注目度): 0.8388591755871735
- License:
- Abstract: Deep learning models are susceptible to {\em backdoor attacks} involving malicious attackers perturbing a small subset of training data with a {\em trigger} to causes misclassifications. Various triggers have been used, including semantic triggers that are easily realizable without requiring the attacker to manipulate the image. The emergence of generative AI has eased the generation of varied poisoned samples. Robustness across types of triggers is crucial to effective defense. We propose Prototype Guided Backdoor Defense (PGBD), a robust post-hoc defense that scales across different trigger types, including previously unsolved semantic triggers. PGBD exploits displacements in the geometric spaces of activations to penalize movements toward the trigger. This is done using a novel sanitization loss of a post-hoc fine-tuning step. The geometric approach scales easily to all types of attacks. PGBD achieves better performance across all settings. We also present the first defense against a new semantic attack on celebrity face images. Project page: \hyperlink{https://venkatadithya9.github.io/pgbd.github.io/}{this https URL}.
- Abstract(参考訳): ディープラーニングモデルは、悪意のある攻撃者がトレーニングデータの小さなサブセットを {\em trigger} でゆがめ、誤分類を引き起こすような、 {\emのバックドア攻撃の影響を受けやすい。
イメージを操作する必要なしに容易に実現可能なセマンティックトリガーなど、さまざまなトリガーが使用されている。
生成AIの出現は、様々な有毒なサンプルの生成を緩和した。
トリガーの種類によるロバスト性は、効果的な防御に不可欠である。
PGBD(Prototype Guided Backdoor Defense)は,従来未解決だったセマンティックトリガを含む,さまざまなトリガタイプにまたがる堅牢なポストホックディフェンスである。
PGBDは、アクティベーションの幾何学的空間における変位を利用して、トリガーへの動きをペナルティ化する。
これは、ポストホック微調整ステップの新規な殺菌損失を用いて行われる。
幾何学的アプローチは、あらゆる種類の攻撃に容易にスケールする。
PGBDはすべての設定でパフォーマンスが向上する。
また,有名人の顔画像に対する新たなセマンティックアタックに対する最初の防御効果を示す。
プロジェクトページ: \hyperlink{https://venkatadithya9.github.io/pgbd.github.io/}{this https URL}。
関連論文リスト
- A4O: All Trigger for One sample [10.78460062665304]
提案されたバックドアディフェンダーは、トリガーが統一された方法で現れるという仮定に依存することが多い。
本稿では,この単純な仮定が抜け穴を生じさせ,より洗練されたバックドア攻撃を回避できることを示す。
我々は,複数の種類のバックドアトリガーを組み込んだ新たなバックドア攻撃機構を設計し,ステルスネスと有効性に着目した。
論文 参考訳(メタデータ) (2025-01-13T10:38:58Z) - Distributed Backdoor Attacks on Federated Graph Learning and Certified Defenses [50.53476890313741]
我々は,FedGLに対する効果的な,ステルス的で永続的なバックドア攻撃を提案する。
我々は,任意の位置において任意の形状のトリガに対して,バックドアのFedGLモデルに対する認証された防御を開発する。
我々の攻撃結果は、ほぼ全てのデータセットで90%以上のバックドア精度が得られることを示している。
論文 参考訳(メタデータ) (2024-07-12T02:43:44Z) - An Invisible Backdoor Attack Based On Semantic Feature [0.0]
過去数年間、バックドア攻撃はディープニューラルネットワーク(DNN)モデルに深刻な脅威を与えてきた。
我々は、新しいバックドア攻撃を提案し、不可避な変更を行う。
我々は3つの画像分類データセットに対する攻撃を評価した。
論文 参考訳(メタデータ) (2024-05-19T13:50:40Z) - Does Few-shot Learning Suffer from Backdoor Attacks? [63.9864247424967]
数発の学習がバックドアアタックに対して脆弱であることは明らかです。
本手法は,FSLタスクにおける攻撃成功率(ASR)を,異なる数発の学習パラダイムで示す。
この研究は、数発の学習がまだバックドア攻撃に悩まされており、そのセキュリティに注意を払う必要があることを明らかにしている。
論文 参考訳(メタデータ) (2023-12-31T06:43:36Z) - FTA: Stealthy and Adaptive Backdoor Attack with Flexible Triggers on
Federated Learning [11.636353298724574]
我々は,新たなステルスで堅牢なバックドア攻撃を,連邦学習(FL)防衛に対して提案する。
我々は、許容できない柔軟なトリガーパターンで良質なサンプルを操作することを学べる生成的トリガー関数を構築した。
我々のトリガージェネレータは学習を継続し、異なるラウンドにまたがって適応し、グローバルモデルの変化に適応できるようにします。
論文 参考訳(メタデータ) (2023-08-31T20:25:54Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - M-to-N Backdoor Paradigm: A Multi-Trigger and Multi-Target Attack to Deep Learning Models [17.699749361475774]
我々は新たな$M$-to-$N$攻撃パラダイムを提案し、攻撃者が任意の入力を操作してターゲットクラスを攻撃できるようにする。
我々の攻撃は、ターゲットクラスごとに$M$のクリーンイメージをトリガーとして選択し、提案した有毒画像生成フレームワークを活用する。
我々の新たなバックドア攻撃は、複数のターゲットクラスを攻撃し、前処理操作や既存の防御に対して堅牢である。
論文 参考訳(メタデータ) (2022-11-03T15:06:50Z) - Backdoor Attack in the Physical World [49.64799477792172]
ディープニューラルネットワーク(DNN)に隠れたバックドアを注入するバックドア攻撃
既存のバックドア攻撃のほとんどは、トレーニングおよびテスト画像にまたがる静的トリガ、すなわち$$トリガの設定を採用した。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、この攻撃パラダイムは脆弱であることを示す。
論文 参考訳(メタデータ) (2021-04-06T08:37:33Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - Rethinking the Trigger of Backdoor Attack [83.98031510668619]
現在、既存のバックドア攻撃のほとんどは、トレーニングとテスト用の画像は同じ外観で、同じエリアに置かれている。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、このような攻撃パラダイムが脆弱であることを示す。
論文 参考訳(メタデータ) (2020-04-09T17:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。