論文の概要: Reflection Backdoor: A Natural Backdoor Attack on Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2007.02343v2
- Date: Mon, 13 Jul 2020 13:46:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 08:22:12.138610
- Title: Reflection Backdoor: A Natural Backdoor Attack on Deep Neural Networks
- Title(参考訳): 反射バックドア:ディープニューラルネットワークに対する自然なバックドア攻撃
- Authors: Yunfei Liu, Xingjun Ma, James Bailey, Feng Lu
- Abstract要約: バックドア攻撃は、バックドアパターンをトレーニングデータのごく一部に注入することにより、バックドアを被害者モデルにインストールする。
被害者モデルにバックドアとして反射を植え付けるための反射バックドア(Refool)を提案する。
Refoolは最先端のDNNを高い成功率で攻撃することができる。
- 参考スコア(独自算出の注目度): 46.99548490594115
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies have shown that DNNs can be compromised by backdoor attacks
crafted at training time. A backdoor attack installs a backdoor into the victim
model by injecting a backdoor pattern into a small proportion of the training
data. At test time, the victim model behaves normally on clean test data, yet
consistently predicts a specific (likely incorrect) target class whenever the
backdoor pattern is present in a test example. While existing backdoor attacks
are effective, they are not stealthy. The modifications made on training data
or labels are often suspicious and can be easily detected by simple data
filtering or human inspection. In this paper, we present a new type of backdoor
attack inspired by an important natural phenomenon: reflection. Using
mathematical modeling of physical reflection models, we propose reflection
backdoor (Refool) to plant reflections as backdoor into a victim model. We
demonstrate on 3 computer vision tasks and 5 datasets that, Refool can attack
state-of-the-art DNNs with high success rate, and is resistant to
state-of-the-art backdoor defenses.
- Abstract(参考訳): 近年の研究では、DNNは訓練時に作られたバックドア攻撃によって損なわれる可能性があることが示されている。
バックドア攻撃は、少量のトレーニングデータにバックドアパターンを注入して、被害者モデルにバックドアをインストールする。
テスト時には、犠牲者モデルは、通常クリーンなテストデータで振る舞うが、テスト例にバックドアパターンが存在するときは常に、特定の(おそらく不正確な)ターゲットクラスを予測する。
既存のバックドア攻撃は効果的だが、ステルス性はない。
トレーニングデータやラベルに対する修正はしばしば疑わしいものであり、単純なデータフィルタリングや人間の検査によって容易に検出できる。
本稿では,重要な自然現象である反射に触発された新たなバックドア攻撃について述べる。
物理反射モデルの数学的モデリングを用いて、反射をバックドアとして犠牲者モデルに植え付ける反射バックドア(Refool)を提案する。
3つのコンピュータビジョンタスクと5つのデータセットで、refoolは最先端のdnnを高い成功率で攻撃でき、最先端のバックドア防御に耐性があることを示す。
関連論文リスト
- Expose Before You Defend: Unifying and Enhancing Backdoor Defenses via Exposed Models [68.40324627475499]
本稿では,Expose Before You Defendという新しい2段階防衛フレームワークを紹介する。
EBYDは既存のバックドア防御手法を総合防衛システムに統合し、性能を向上する。
2つの視覚データセットと4つの言語データセットにまたがる10のイメージアタックと6つのテキストアタックに関する広範な実験を行います。
論文 参考訳(メタデータ) (2024-10-25T09:36:04Z) - Mitigating Backdoor Attack by Injecting Proactive Defensive Backdoor [63.84477483795964]
データ中毒のバックドア攻撃は、機械学習モデルにとって深刻なセキュリティ上の脅威である。
本稿では,トレーニング中のバックドアディフェンスに着目し,データセットが有害になりうる場合でもクリーンなモデルをトレーニングすることを目的とした。
PDB(Proactive Defensive Backdoor)と呼ばれる新しい防衛手法を提案する。
論文 参考訳(メタデータ) (2024-05-25T07:52:26Z) - Backdoor Defense via Deconfounded Representation Learning [17.28760299048368]
我々は、信頼性の高い分類のための非定型表現を学ぶために、因果性に着想を得たバックドアディフェンス(CBD)を提案する。
CBDは、良性サンプルの予測において高い精度を維持しながら、バックドアの脅威を減らすのに有効である。
論文 参考訳(メタデータ) (2023-03-13T02:25:59Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Can Backdoor Attacks Survive Time-Varying Models? [35.836598031681426]
バックドアはディープニューラルネットワーク(DNN)に対する強力な攻撃
バックドア攻撃が時間変化DNNモデルのより現実的なシナリオに与える影響について検討する。
以上の結果から, ワンショットバックドア攻撃は, 数回のモデル更新以降は生き残らないことが明らかとなった。
論文 参考訳(メタデータ) (2022-06-08T01:32:49Z) - Test-Time Detection of Backdoor Triggers for Poisoned Deep Neural
Networks [24.532269628999025]
深層ニューラルネットワーク(DNN)に対するバックドア(トロイの木馬)攻撃が出現
本稿では,画像分類に対するバックドア攻撃に対する「飛行中」防御法を提案する。
論文 参考訳(メタデータ) (2021-12-06T20:52:00Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。