論文の概要: Clean-Label Backdoor Attacks on Video Recognition Models
- arxiv url: http://arxiv.org/abs/2003.03030v2
- Date: Tue, 16 Jun 2020 12:13:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 01:30:50.205160
- Title: Clean-Label Backdoor Attacks on Video Recognition Models
- Title(参考訳): ビデオ認識モデルにおけるクリーンラベルバックドア攻撃
- Authors: Shihao Zhao, Xingjun Ma, Xiang Zheng, James Bailey, Jingjing Chen,
Yu-Gang Jiang
- Abstract要約: 画像バックドア攻撃は、ビデオでははるかに効果が低いことを示す。
本稿では,映像認識モデルに対するバックドアトリガとして,ユニバーサル・ディバイサル・トリガーを提案する。
提案したバックドア攻撃は,最先端のバックドア防御・検出手法に耐性がある。
- 参考スコア(独自算出の注目度): 87.46539956587908
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) are vulnerable to backdoor attacks which can hide
backdoor triggers in DNNs by poisoning training data. A backdoored model
behaves normally on clean test images, yet consistently predicts a particular
target class for any test examples that contain the trigger pattern. As such,
backdoor attacks are hard to detect, and have raised severe security concerns
in real-world applications. Thus far, backdoor research has mostly been
conducted in the image domain with image classification models. In this paper,
we show that existing image backdoor attacks are far less effective on videos,
and outline 4 strict conditions where existing attacks are likely to fail: 1)
scenarios with more input dimensions (eg. videos), 2) scenarios with high
resolution, 3) scenarios with a large number of classes and few examples per
class (a "sparse dataset"), and 4) attacks with access to correct labels (eg.
clean-label attacks). We propose the use of a universal adversarial trigger as
the backdoor trigger to attack video recognition models, a situation where
backdoor attacks are likely to be challenged by the above 4 strict conditions.
We show on benchmark video datasets that our proposed backdoor attack can
manipulate state-of-the-art video models with high success rates by poisoning
only a small proportion of training data (without changing the labels). We also
show that our proposed backdoor attack is resistant to state-of-the-art
backdoor defense/detection methods, and can even be applied to improve image
backdoor attacks. Our proposed video backdoor attack not only serves as a
strong baseline for improving the robustness of video models, but also provides
a new perspective for more understanding more powerful backdoor attacks.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、トレーニングデータを汚染することで、DNNのバックドアトリガーを隠すバックドア攻撃に対して脆弱である。
バックドアモデルは、通常クリーンなテストイメージで振る舞うが、トリガーパターンを含むテスト例に対して、常に特定のターゲットクラスを予測する。
そのため、バックドア攻撃は検出が困難であり、現実世界のアプリケーションで深刻なセキュリティ上の懸念を引き起こしている。
これまで、バックドア研究は主に画像分類モデルを用いて画像領域で行われてきた。
本稿では,既存の映像バックドア攻撃がビデオに対してはるかに効果が低いことを示し,既存の攻撃が失敗する可能性のある4つの厳格な条件を概説する。
1)より多くの入力次元(ビデオなど)を持つシナリオ
2)高解像度のシナリオ。
3) 多数のクラスがあり、クラスごとに例が少ないシナリオ("スパースデータセット")、そして
4)正しいラベル(クリーンラベル攻撃など)へのアクセスによる攻撃。
以上の4つの厳密な条件により、バックドア攻撃が問題となる可能性のある、ビデオ認識モデルを攻撃するバックドアトリガーとして、ユニバーサル・ディバイサル・トリガーが用いられることを提案する。
提案したバックドア攻撃は,少数のトレーニングデータ(ラベルを変更することなく)のみを汚染することにより,高い成功率で最先端のビデオモデルを操作できることを,ベンチマークビデオデータセットで示す。
また,提案したバックドア攻撃は,最先端のバックドア防御・検出手法に耐性があり,画像バックドア攻撃の改善にも有効であることを示す。
提案するビデオバックドアアタックは,ビデオモデルのロバスト性向上のための強力なベースラインとなるだけでなく,より強力なバックドアアタックをより理解するための新たな視点を提供する。
関連論文リスト
- PatchBackdoor: Backdoor Attack against Deep Neural Networks without
Model Modification [0.0]
バックドア攻撃は、安全クリティカルなシナリオにおけるディープラーニングシステムに対する大きな脅威である。
本稿では,モデル変更なしにバックドア攻撃が可能であることを示す。
PatchBackdoorを現実のシナリオで実装し、攻撃がまだ脅威であることを示す。
論文 参考訳(メタデータ) (2023-08-22T23:02:06Z) - Temporal-Distributed Backdoor Attack Against Video Based Action
Recognition [21.916002204426853]
ビデオデータに対する、シンプルで効果的なバックドア攻撃を導入する。
我々の提案した攻撃は、変換されたドメインに摂動を加えることで、ビデオフレームに知覚不能で時間的に分散されたトリガーを配置する。
論文 参考訳(メタデータ) (2023-08-21T22:31:54Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Look, Listen, and Attack: Backdoor Attacks Against Video Action
Recognition [53.720010650445516]
有毒ラベル画像のバックドア攻撃は静的かつ動的に2つの時間的拡張が可能であることを示す。
さらに、ビデオ領域におけるこの脆弱性の深刻さを強調するために、自然なビデオバックドアを探索する。
また,ビデオ行動認識モデルに対するマルチモーダル(オービジュアル)バックドアアタックを初めて検討した。
論文 参考訳(メタデータ) (2023-01-03T07:40:28Z) - Check Your Other Door! Establishing Backdoor Attacks in the Frequency
Domain [80.24811082454367]
検出不能で強力なバックドア攻撃を確立するために周波数領域を利用する利点を示す。
また、周波数ベースのバックドア攻撃を成功させる2つの防御方法と、攻撃者がそれらを回避できる可能性を示す。
論文 参考訳(メタデータ) (2021-09-12T12:44:52Z) - Backdoor Attack in the Physical World [49.64799477792172]
ディープニューラルネットワーク(DNN)に隠れたバックドアを注入するバックドア攻撃
既存のバックドア攻撃のほとんどは、トレーニングおよびテスト画像にまたがる静的トリガ、すなわち$$トリガの設定を採用した。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、この攻撃パラダイムは脆弱であることを示す。
論文 参考訳(メタデータ) (2021-04-06T08:37:33Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - Reflection Backdoor: A Natural Backdoor Attack on Deep Neural Networks [46.99548490594115]
バックドア攻撃は、バックドアパターンをトレーニングデータのごく一部に注入することにより、バックドアを被害者モデルにインストールする。
被害者モデルにバックドアとして反射を植え付けるための反射バックドア(Refool)を提案する。
Refoolは最先端のDNNを高い成功率で攻撃することができる。
論文 参考訳(メタデータ) (2020-07-05T13:56:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。