論文の概要: Watch Out! Simple Horizontal Class Backdoor Can Trivially Evade Defense
- arxiv url: http://arxiv.org/abs/2310.00542v3
- Date: Tue, 18 Jun 2024 05:59:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-20 05:04:09.906388
- Title: Watch Out! Simple Horizontal Class Backdoor Can Trivially Evade Defense
- Title(参考訳): シンプルな水平クラスバックドアで3D防御が可能に
- Authors: Hua Ma, Shang Wang, Yansong Gao, Zhi Zhang, Huming Qiu, Minhui Xue, Alsharif Abuadbba, Anmin Fu, Surya Nepal, Derek Abbott,
- Abstract要約: 本研究では,水平クラスバックドア(HCB)として考案された,新しい,シンプルで汎用的なバックドア攻撃について紹介する。
HCBは、クラスに関係なく、トリガーが無害な特徴と共に提示されるときに起動される。
MNIST, 顔認識, 交通標識認識, 物体検出, 医療診断など, 様々なタスクにおける攻撃性能の実験により, HCBの高効率性と有効性が確認された。
- 参考スコア(独自算出の注目度): 33.332887195656674
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: All current backdoor attacks on deep learning (DL) models fall under the category of a vertical class backdoor (VCB) -- class-dependent. In VCB attacks, any sample from a class activates the implanted backdoor when the secret trigger is present. Existing defense strategies overwhelmingly focus on countering VCB attacks, especially those that are source-class-agnostic. This narrow focus neglects the potential threat of other simpler yet general backdoor types, leading to false security implications. This study introduces a new, simple, and general type of backdoor attack coined as the horizontal class backdoor (HCB) that trivially breaches the class dependence characteristic of the VCB, bringing a fresh perspective to the community. HCB is now activated when the trigger is presented together with an innocuous feature, regardless of class. For example, the facial recognition model misclassifies a person who wears sunglasses with a smiling innocuous feature into the targeted person, such as an administrator, regardless of which person. The key is that these innocuous features are horizontally shared among classes but are only exhibited by partial samples per class. Extensive experiments on attacking performance across various tasks, including MNIST, facial recognition, traffic sign recognition, object detection, and medical diagnosis, confirm the high efficiency and effectiveness of the HCB. We rigorously evaluated the evasiveness of the HCB against a series of eleven representative countermeasures, including Fine-Pruning (RAID 18'), STRIP (ACSAC 19'), Neural Cleanse (Oakland 19'), ABS (CCS 19'), Februus (ACSAC 20'), NAD (ICLR 21'), MNTD (Oakland 21'), SCAn (USENIX SEC 21'), MOTH (Oakland 22'), Beatrix (NDSS 23'), and MM-BD (Oakland 24'). None of these countermeasures prove robustness, even when employing a simplistic trigger, such as a small and static white-square patch.
- Abstract(参考訳): ディープラーニング(DL)モデルに対する現在のバックドア攻撃はすべて、クラス依存の垂直クラスバックドア(VCB)のカテゴリに該当する。
VCB攻撃では、クラスからのサンプルは、シークレットトリガーが存在するときに埋め込まれたバックドアを起動する。
既存の防衛戦略は、VCB攻撃、特にソースクラスに依存しない攻撃への対応に圧倒的に重点を置いている。
この狭い焦点は、他のより単純だが一般的なバックドア型の潜在的な脅威を無視し、誤ったセキュリティ上の影響をもたらす。
本研究は,VCBのクラス依存特性を自明に破り,コミュニティに新たな視点をもたらす水平クラスバックドア(HCB)として考案された,新しい,シンプルで一般的なバックドア攻撃を紹介した。
HCBは、クラスに関係なく、トリガーが無害な特徴と共に提示されるときに起動される。
例えば、顔認識モデルは、笑顔の無害な特徴を持つサングラスをかけた人を、どの人物であっても、管理者などの対象人物に誤分類する。
鍵となるのは、これらの無害な機能はクラス間で水平に共有されているが、クラスごとに部分的なサンプルによってのみ表示されることだ。
MNIST, 顔認識, 交通標識認識, 物体検出, 医療診断など, 様々なタスクにおける攻撃性能に関する大規模な実験により, HCBの高効率性と有効性が確認された。
本研究は, RAID 18', STRIP (ACSAC 19'), Neural Cleanse (Oakland 19'), ABS (CCS 19'), Februus (ACSAC 20'), NAD (ICLR 21'), MNTD (Oakland 21'), SCAn (USENIX SEC 21'), MOTH (Oakland 22'), Beatrix (NDSS 23'), MM-BD (Oakland 24'), MM-BD (Oakland 24'), MM-BD (Oakland 24'), MM-BD (Oakland 24'), MM-BD (Oakland 24') など, HCBの回避性について検討した。
これらの対策はいずれも、小さくて静的な白色四角いパッチのような単純なトリガーを使用する場合であっても、堅牢性を示すものではない。
関連論文リスト
- NoiseAttack: An Evasive Sample-Specific Multi-Targeted Backdoor Attack Through White Gaussian Noise [0.19820694575112383]
ディープラーニング開発にサードパーティのデータを使用する場合、バックドア攻撃は重大な脅威となる。
我々は,新しいサンプル特異的なマルチターゲットバックドアアタック,すなわちNossAttackを紹介した。
この作業は、複数のターゲットクラスを生成する目的でビジョンバックドアアタックを起動する、この種の最初のものだ。
論文 参考訳(メタデータ) (2024-09-03T19:24:46Z) - Towards Clean-Label Backdoor Attacks in the Physical World [5.924780594614676]
本稿では,顔認証と動物分類に関する実験を通じて,新たな攻撃パラダイム,SMSbfclean-label physical backdoor attack (CLPBA)について検討する。
CLPBAは、正しい毒殺アルゴリズムと物理的トリガーで深刻な脅威になる可能性がある。
本研究は,意図しないオブジェクトやクラスが対象クラスとして誤って分類される場合に発生する,CLPBAの制限として,偶然のバックドアアクティベーションが強調される。
論文 参考訳(メタデータ) (2024-07-27T08:13:07Z) - Not All Prompts Are Secure: A Switchable Backdoor Attack Against Pre-trained Vision Transformers [51.0477382050976]
この作業でスイッチトークンと呼ばれる追加のプロンプトトークンは、バックドアモードをオンにすることができ、良心的なモデルをバックドアモードに変換することができる。
事前訓練されたモデルを攻撃するため、SWARMと呼ばれる攻撃はトリガを学習し、スイッチトークンを含むトークンをプロンプトする。
多様な視覚認識タスクの実験は、切り替え可能なバックドア攻撃の成功を確認し、95%以上の攻撃成功率を達成した。
論文 参考訳(メタデータ) (2024-05-17T08:19:48Z) - A Clean-graph Backdoor Attack against Graph Convolutional Networks with Poisoned Label Only [0.0]
本稿では,ノード分類タスクにおけるGCN(CBAG)に対するクリーングラフバックドア攻撃を提案する。
トレーニングラベルを汚染することにより、隠れたバックドアがGCNsモデルに注入される。
実験の結果,クリーングラフバックドアは99%の攻撃成功率が得られることがわかった。
論文 参考訳(メタデータ) (2024-04-19T08:21:54Z) - Does Few-shot Learning Suffer from Backdoor Attacks? [63.9864247424967]
数発の学習がバックドアアタックに対して脆弱であることは明らかです。
本手法は,FSLタスクにおける攻撃成功率(ASR)を,異なる数発の学習パラダイムで示す。
この研究は、数発の学習がまだバックドア攻撃に悩まされており、そのセキュリティに注意を払う必要があることを明らかにしている。
論文 参考訳(メタデータ) (2023-12-31T06:43:36Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Narcissus: A Practical Clean-Label Backdoor Attack with Limited
Information [22.98039177091884]
クリーンラベル」バックドア攻撃には、トレーニングセット全体の知識が必要である。
本稿では,対象クラスの代表例の知識のみに基づいて,クリーンラベルバックドア攻撃をマウントするアルゴリズムを提案する。
私たちの攻撃は、物理的な世界にトリガーが存在する場合でも、データセットやモデル間でうまく機能します。
論文 参考訳(メタデータ) (2022-04-11T16:58:04Z) - Poisoned classifiers are not only backdoored, they are fundamentally
broken [84.67778403778442]
一般的に研究されている、分類モデルに対するバックドア中毒攻撃の下で、攻撃者はトレーニングデータのサブセットに小さなトリガーを追加する。
毒を盛った分類器は、引き金を持つ敵のみに弱いと推定されることが多い。
本稿では,このバックドア型分類器の考え方が誤りであることを実証的に示す。
論文 参考訳(メタデータ) (2020-10-18T19:42:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。