論文の概要: Horizontal Class Backdoor to Deep Learning
- arxiv url: http://arxiv.org/abs/2310.00542v1
- Date: Sun, 1 Oct 2023 01:45:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 03:39:45.117292
- Title: Horizontal Class Backdoor to Deep Learning
- Title(参考訳): ディープラーニングへの水平クラスバックドア
- Authors: Hua Ma, Shang Wang, Yansong Gao
- Abstract要約: この研究は、新しい、単純で一般的な水平クラスバックドア(HCB)攻撃を明らかにしている。
バックドアは自然界で一般的で広く普及している無害な自然特徴と自然に結びつくことができることを示す。
1) MNIST, 2) 顔認証, 3) 交通標識認識, 4) 物体検出による高い攻撃成功率を示す実験は, HCBが効率的かつ効果的であることを示す。
- 参考スコア(独自算出の注目度): 11.682659289909981
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: All existing backdoor attacks to deep learning (DL) models belong to the
vertical class backdoor (VCB). That is, any sample from a class will activate
the implanted backdoor in the presence of the secret trigger, regardless of
source-class-agnostic or source-class-specific backdoor. Current trends of
existing defenses are overwhelmingly devised for VCB attacks especially the
source-class-agnostic backdoor, which essentially neglects other potential
simple but general backdoor types, thus giving false security implications. It
is thus urgent to discover unknown backdoor types.
This work reveals a new, simple, and general horizontal class backdoor (HCB)
attack. We show that the backdoor can be naturally bounded with innocuous
natural features that are common and pervasive in the real world. Note that an
innocuous feature (e.g., expression) is irrelevant to the main task of the
model (e.g., recognizing a person from one to another). The innocuous feature
spans across classes horizontally but is exhibited by partial samples per class
-- satisfying the horizontal class (HC) property. Only when the trigger is
concurrently presented with the HC innocuous feature, can the backdoor be
effectively activated. Extensive experiments on attacking performance in terms
of high attack success rates with tasks of 1) MNIST, 2) facial recognition, 3)
traffic sign recognition, and 4) object detection demonstrate that the HCB is
highly efficient and effective. We extensively evaluate the HCB evasiveness
against a (chronologically) series of 9 influential countermeasures of
Fine-Pruning (RAID 18'), STRIP (ACSAC 19'), Neural Cleanse (Oakland 19'), ABS
(CCS 19'), Februus (ACSAC 20'), MNTD (Oakland 21'), SCAn (USENIX SEC 21'), MOTH
(Oakland 22'), and Beatrix (NDSS 23'), where none of them can succeed even when
a simplest trigger is used.
- Abstract(参考訳): ディープラーニング(dl)モデルに対する既存のバックドア攻撃はすべて、vertical class backdoor(vcb)に属する。
すなわち、ソースクラスに依存しない、またはソースクラス固有のバックドアに関係なく、クラスからのサンプルがシークレットトリガーの存在下で移植されたバックドアをアクティベートする。
既存の防衛の現在の傾向は、VCB攻撃、特にソースクラスに依存しないバックドアに対して圧倒的に考案されている。
したがって、未知のバックドアタイプを発見することは急務である。
この研究は、新しい、単純で一般的な水平クラスバックドア(HCB)攻撃を明らかにしている。
バックドアは自然界で広く普及している無害な自然特徴と自然に結びつくことができることを示す。
注意すべき点は、無害な特徴(例えば、表現)がモデルのメインタスク(例えば、人同士の認識)とは無関係であることである。
この無意味な特徴はクラスを水平に横切るが、クラスごとの部分的なサンプルによって示され、水平クラス(hc)特性を満たす。
トリガーがHCの無害な特徴と共に同時に提示されるときのみ、バックドアを効果的に活性化できる。
タスクを伴う高攻撃成功率の観点からの攻撃性能に関する大規模実験
1)mnist,
2)顔認識
3)交通標識の認識,及び
4) 物体検出は, HCBが効率的かつ効果的であることを示す。
簡単なトリガーを用いた場合においても, RAID 18', STRIP (ACSAC 19'), Neural Cleanse (Oakland 19'), ABS (CCS 19'), Februus (ACSAC 20'), MNTD (Oakland 21'), SCAn (USENIX SEC 21'), MOTH (Oakland 22'), Beatrix (NDSS 23') の9つの有効な対策の1つに対して, HCB回避効果を広範囲に評価した。
関連論文リスト
- A Clean-graph Backdoor Attack against Graph Convolutional Networks with Poisoned Label Only [0.0]
本稿では,ノード分類タスクにおけるGCN(CBAG)に対するクリーングラフバックドア攻撃を提案する。
トレーニングラベルを汚染することにより、隠れたバックドアがGCNsモデルに注入される。
実験の結果,クリーングラフバックドアは99%の攻撃成功率が得られることがわかった。
論文 参考訳(メタデータ) (2024-04-19T08:21:54Z) - Does Few-shot Learning Suffer from Backdoor Attacks? [63.9864247424967]
数発の学習がバックドアアタックに対して脆弱であることは明らかです。
本手法は,FSLタスクにおける攻撃成功率(ASR)を,異なる数発の学習パラダイムで示す。
この研究は、数発の学習がまだバックドア攻撃に悩まされており、そのセキュリティに注意を払う必要があることを明らかにしている。
論文 参考訳(メタデータ) (2023-12-31T06:43:36Z) - Pre-trained Trojan Attacks for Visual Recognition [106.13792185398863]
PVM(Pre-trained Vision Model)は、下流タスクを微調整する際、例外的なパフォーマンスのため、主要なコンポーネントとなっている。
本稿では,PVMにバックドアを埋め込んだトロイの木馬攻撃を提案する。
バックドア攻撃の成功において、クロスタスクアクティベーションとショートカット接続がもたらす課題を強調します。
論文 参考訳(メタデータ) (2023-12-23T05:51:40Z) - Backdoor Attack with Sparse and Invisible Trigger [60.84183404621145]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Narcissus: A Practical Clean-Label Backdoor Attack with Limited
Information [22.98039177091884]
クリーンラベル」バックドア攻撃には、トレーニングセット全体の知識が必要である。
本稿では,対象クラスの代表例の知識のみに基づいて,クリーンラベルバックドア攻撃をマウントするアルゴリズムを提案する。
私たちの攻撃は、物理的な世界にトリガーが存在する場合でも、データセットやモデル間でうまく機能します。
論文 参考訳(メタデータ) (2022-04-11T16:58:04Z) - Dynamic Backdoors with Global Average Pooling [25.71980605208004]
アウトソーストレーニングとマシンラーニング・アズ・ア・サービスにより、バックドア攻撃のような新たな攻撃ベクトルが生まれている。
本研究は,世界平均プール層による動的バックドア攻撃が,有毒なトレーニングデータの割合を増大させることなく起こりうることを示す最初の試みである。
論文 参考訳(メタデータ) (2022-03-04T00:51:54Z) - Poisoned classifiers are not only backdoored, they are fundamentally
broken [84.67778403778442]
一般的に研究されている、分類モデルに対するバックドア中毒攻撃の下で、攻撃者はトレーニングデータのサブセットに小さなトリガーを追加する。
毒を盛った分類器は、引き金を持つ敵のみに弱いと推定されることが多い。
本稿では,このバックドア型分類器の考え方が誤りであることを実証的に示す。
論文 参考訳(メタデータ) (2020-10-18T19:42:44Z) - Reverse Engineering Imperceptible Backdoor Attacks on Deep Neural
Networks for Detection and Training Set Cleansing [22.22337220509128]
バックドアデータ中毒は、ディープニューラルネットワークイメージ分類器に対する敵攻撃の新たな形態である。
本稿では,非受容的なバックドアパターンを用いたバックドア攻撃の防御において,ブレークスルーを行う。
1)トレーニングセットが毒であるかどうかを検知し,2)ターゲットクラスとトレーニングイメージをバックドアパターンを埋め込んだ状態で識別し,3)攻撃者が使用するバックドアパターンの推定をリバースエンジニアリングする。
論文 参考訳(メタデータ) (2020-10-15T03:12:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。