論文の概要: Horizontal Class Backdoor to Deep Learning
- arxiv url: http://arxiv.org/abs/2310.00542v1
- Date: Sun, 1 Oct 2023 01:45:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 03:39:45.117292
- Title: Horizontal Class Backdoor to Deep Learning
- Title(参考訳): ディープラーニングへの水平クラスバックドア
- Authors: Hua Ma, Shang Wang, Yansong Gao
- Abstract要約: この研究は、新しい、単純で一般的な水平クラスバックドア(HCB)攻撃を明らかにしている。
バックドアは自然界で一般的で広く普及している無害な自然特徴と自然に結びつくことができることを示す。
1) MNIST, 2) 顔認証, 3) 交通標識認識, 4) 物体検出による高い攻撃成功率を示す実験は, HCBが効率的かつ効果的であることを示す。
- 参考スコア(独自算出の注目度): 11.682659289909981
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: All existing backdoor attacks to deep learning (DL) models belong to the
vertical class backdoor (VCB). That is, any sample from a class will activate
the implanted backdoor in the presence of the secret trigger, regardless of
source-class-agnostic or source-class-specific backdoor. Current trends of
existing defenses are overwhelmingly devised for VCB attacks especially the
source-class-agnostic backdoor, which essentially neglects other potential
simple but general backdoor types, thus giving false security implications. It
is thus urgent to discover unknown backdoor types.
This work reveals a new, simple, and general horizontal class backdoor (HCB)
attack. We show that the backdoor can be naturally bounded with innocuous
natural features that are common and pervasive in the real world. Note that an
innocuous feature (e.g., expression) is irrelevant to the main task of the
model (e.g., recognizing a person from one to another). The innocuous feature
spans across classes horizontally but is exhibited by partial samples per class
-- satisfying the horizontal class (HC) property. Only when the trigger is
concurrently presented with the HC innocuous feature, can the backdoor be
effectively activated. Extensive experiments on attacking performance in terms
of high attack success rates with tasks of 1) MNIST, 2) facial recognition, 3)
traffic sign recognition, and 4) object detection demonstrate that the HCB is
highly efficient and effective. We extensively evaluate the HCB evasiveness
against a (chronologically) series of 9 influential countermeasures of
Fine-Pruning (RAID 18'), STRIP (ACSAC 19'), Neural Cleanse (Oakland 19'), ABS
(CCS 19'), Februus (ACSAC 20'), MNTD (Oakland 21'), SCAn (USENIX SEC 21'), MOTH
(Oakland 22'), and Beatrix (NDSS 23'), where none of them can succeed even when
a simplest trigger is used.
- Abstract(参考訳): ディープラーニング(dl)モデルに対する既存のバックドア攻撃はすべて、vertical class backdoor(vcb)に属する。
すなわち、ソースクラスに依存しない、またはソースクラス固有のバックドアに関係なく、クラスからのサンプルがシークレットトリガーの存在下で移植されたバックドアをアクティベートする。
既存の防衛の現在の傾向は、VCB攻撃、特にソースクラスに依存しないバックドアに対して圧倒的に考案されている。
したがって、未知のバックドアタイプを発見することは急務である。
この研究は、新しい、単純で一般的な水平クラスバックドア(HCB)攻撃を明らかにしている。
バックドアは自然界で広く普及している無害な自然特徴と自然に結びつくことができることを示す。
注意すべき点は、無害な特徴(例えば、表現)がモデルのメインタスク(例えば、人同士の認識)とは無関係であることである。
この無意味な特徴はクラスを水平に横切るが、クラスごとの部分的なサンプルによって示され、水平クラス(hc)特性を満たす。
トリガーがHCの無害な特徴と共に同時に提示されるときのみ、バックドアを効果的に活性化できる。
タスクを伴う高攻撃成功率の観点からの攻撃性能に関する大規模実験
1)mnist,
2)顔認識
3)交通標識の認識,及び
4) 物体検出は, HCBが効率的かつ効果的であることを示す。
簡単なトリガーを用いた場合においても, RAID 18', STRIP (ACSAC 19'), Neural Cleanse (Oakland 19'), ABS (CCS 19'), Februus (ACSAC 20'), MNTD (Oakland 21'), SCAn (USENIX SEC 21'), MOTH (Oakland 22'), Beatrix (NDSS 23') の9つの有効な対策の1つに対して, HCB回避効果を広範囲に評価した。
関連論文リスト
- NoiseAttack: An Evasive Sample-Specific Multi-Targeted Backdoor Attack Through White Gaussian Noise [0.19820694575112383]
ディープラーニング開発にサードパーティのデータを使用する場合、バックドア攻撃は重大な脅威となる。
我々は,新しいサンプル特異的なマルチターゲットバックドアアタック,すなわちNossAttackを紹介した。
この作業は、複数のターゲットクラスを生成する目的でビジョンバックドアアタックを起動する、この種の最初のものだ。
論文 参考訳(メタデータ) (2024-09-03T19:24:46Z) - Towards Clean-Label Backdoor Attacks in the Physical World [5.924780594614676]
本稿では,顔認証と動物分類に関する実験を通じて,新たな攻撃パラダイム,SMSbfclean-label physical backdoor attack (CLPBA)について検討する。
CLPBAは、正しい毒殺アルゴリズムと物理的トリガーで深刻な脅威になる可能性がある。
本研究は,意図しないオブジェクトやクラスが対象クラスとして誤って分類される場合に発生する,CLPBAの制限として,偶然のバックドアアクティベーションが強調される。
論文 参考訳(メタデータ) (2024-07-27T08:13:07Z) - Not All Prompts Are Secure: A Switchable Backdoor Attack Against Pre-trained Vision Transformers [51.0477382050976]
この作業でスイッチトークンと呼ばれる追加のプロンプトトークンは、バックドアモードをオンにすることができ、良心的なモデルをバックドアモードに変換することができる。
事前訓練されたモデルを攻撃するため、SWARMと呼ばれる攻撃はトリガを学習し、スイッチトークンを含むトークンをプロンプトする。
多様な視覚認識タスクの実験は、切り替え可能なバックドア攻撃の成功を確認し、95%以上の攻撃成功率を達成した。
論文 参考訳(メタデータ) (2024-05-17T08:19:48Z) - A Clean-graph Backdoor Attack against Graph Convolutional Networks with Poisoned Label Only [0.0]
本稿では,ノード分類タスクにおけるGCN(CBAG)に対するクリーングラフバックドア攻撃を提案する。
トレーニングラベルを汚染することにより、隠れたバックドアがGCNsモデルに注入される。
実験の結果,クリーングラフバックドアは99%の攻撃成功率が得られることがわかった。
論文 参考訳(メタデータ) (2024-04-19T08:21:54Z) - Does Few-shot Learning Suffer from Backdoor Attacks? [63.9864247424967]
数発の学習がバックドアアタックに対して脆弱であることは明らかです。
本手法は,FSLタスクにおける攻撃成功率(ASR)を,異なる数発の学習パラダイムで示す。
この研究は、数発の学習がまだバックドア攻撃に悩まされており、そのセキュリティに注意を払う必要があることを明らかにしている。
論文 参考訳(メタデータ) (2023-12-31T06:43:36Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Narcissus: A Practical Clean-Label Backdoor Attack with Limited
Information [22.98039177091884]
クリーンラベル」バックドア攻撃には、トレーニングセット全体の知識が必要である。
本稿では,対象クラスの代表例の知識のみに基づいて,クリーンラベルバックドア攻撃をマウントするアルゴリズムを提案する。
私たちの攻撃は、物理的な世界にトリガーが存在する場合でも、データセットやモデル間でうまく機能します。
論文 参考訳(メタデータ) (2022-04-11T16:58:04Z) - Poisoned classifiers are not only backdoored, they are fundamentally
broken [84.67778403778442]
一般的に研究されている、分類モデルに対するバックドア中毒攻撃の下で、攻撃者はトレーニングデータのサブセットに小さなトリガーを追加する。
毒を盛った分類器は、引き金を持つ敵のみに弱いと推定されることが多い。
本稿では,このバックドア型分類器の考え方が誤りであることを実証的に示す。
論文 参考訳(メタデータ) (2020-10-18T19:42:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。