論文の概要: Temporal-Distributed Backdoor Attack Against Video Based Action
Recognition
- arxiv url: http://arxiv.org/abs/2308.11070v3
- Date: Sat, 9 Dec 2023 15:00:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 02:02:53.676107
- Title: Temporal-Distributed Backdoor Attack Against Video Based Action
Recognition
- Title(参考訳): 映像に基づく行動認識に対する時間分布バックドア攻撃
- Authors: Xi Li, Songhe Wang, Ruiquan Huang, Mahanth Gowda, George Kesidis
- Abstract要約: ビデオデータに対する、シンプルで効果的なバックドア攻撃を導入する。
我々の提案した攻撃は、変換されたドメインに摂動を加えることで、ビデオフレームに知覚不能で時間的に分散されたトリガーを配置する。
- 参考スコア(独自算出の注目度): 21.916002204426853
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) have achieved tremendous success in various
applications including video action recognition, yet remain vulnerable to
backdoor attacks (Trojans). The backdoor-compromised model will mis-classify to
the target class chosen by the attacker when a test instance (from a non-target
class) is embedded with a specific trigger, while maintaining high accuracy on
attack-free instances. Although there are extensive studies on backdoor attacks
against image data, the susceptibility of video-based systems under backdoor
attacks remains largely unexplored. Current studies are direct extensions of
approaches proposed for image data, e.g., the triggers are independently
embedded within the frames, which tend to be detectable by existing defenses.
In this paper, we introduce a simple yet effective backdoor attack against
video data. Our proposed attack, adding perturbations in a transformed domain,
plants an imperceptible, temporally distributed trigger across the video
frames, and is shown to be resilient to existing defensive strategies. The
effectiveness of the proposed attack is demonstrated by extensive experiments
with various well-known models on two video recognition benchmarks, UCF101 and
HMDB51, and a sign language recognition benchmark, Greek Sign Language (GSL)
dataset. We delve into the impact of several influential factors on our
proposed attack and identify an intriguing effect termed "collateral damage"
through extensive studies.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、ビデオアクション認識を含む様々なアプリケーションで大きな成功を収めているが、バックドア攻撃(トロイの木馬)には弱いままである。
backdoor-compromizedモデルでは,テストインスタンス(非ターゲットクラス)に特定のトリガを組み込んだ場合,アタックフリーインスタンスの精度を維持しながら,攻撃者が選択したターゲットクラスを誤って分類する。
画像データに対するバックドア攻撃については広範な研究があるが、バックドア攻撃による映像ベースシステムの受容性は未解明のままである。
現在の研究は、画像データに対して提案されたアプローチの直接的な拡張である。例えば、トリガーはフレーム内に独立に埋め込まれており、既存の防御によって検出される傾向がある。
本稿では,ビデオデータに対する簡易かつ効果的なバックドア攻撃を提案する。
提案する攻撃は,トランスフォーメーション領域に摂動を付加し,映像フレーム全体にわたって知覚不能で時間分散したトリガーを植え込み,既存の防御戦略に弾力性があることが示されている。
提案手法の有効性は,ビデオ認識ベンチマーク ucf101 と hmdb51 と手話認識ベンチマーク greek sign language (gsl) データセットを用いて,様々な既知のモデルを用いた広範囲な実験により実証された。
提案する攻撃に対するいくつかの要因の影響を考察し、広範囲な研究を通じて「集団的損傷」と呼ばれる興味深い効果を見いだした。
関連論文リスト
- BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Look, Listen, and Attack: Backdoor Attacks Against Video Action
Recognition [53.720010650445516]
有毒ラベル画像のバックドア攻撃は静的かつ動的に2つの時間的拡張が可能であることを示す。
さらに、ビデオ領域におけるこの脆弱性の深刻さを強調するために、自然なビデオバックドアを探索する。
また,ビデオ行動認識モデルに対するマルチモーダル(オービジュアル)バックドアアタックを初めて検討した。
論文 参考訳(メタデータ) (2023-01-03T07:40:28Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - On the Effectiveness of Adversarial Training against Backdoor Attacks [111.8963365326168]
バックドアモデルは、事前に定義されたトリガーパターンが存在する場合、常にターゲットクラスを予測する。
一般的には、敵の訓練はバックドア攻撃に対する防御であると信じられている。
本稿では,様々なバックドア攻撃に対して良好な堅牢性を提供するハイブリッド戦略を提案する。
論文 参考訳(メタデータ) (2022-02-22T02:24:46Z) - PAT: Pseudo-Adversarial Training For Detecting Adversarial Videos [20.949656274807904]
我々は,攻撃の知識を必要とせず,映像中の対角フレームを検出するための,Pseudo-versa-Adrial Training (PAT) という,新しい単純なアルゴリズムを提案する。
UCF-101および20BN-Jesterデータセットによる実験結果から、PATは高い検出率で対向的なビデオフレームやビデオを検出することができることがわかった。
論文 参考訳(メタデータ) (2021-09-13T04:05:46Z) - Clean-Label Backdoor Attacks on Video Recognition Models [87.46539956587908]
画像バックドア攻撃は、ビデオでははるかに効果が低いことを示す。
本稿では,映像認識モデルに対するバックドアトリガとして,ユニバーサル・ディバイサル・トリガーを提案する。
提案したバックドア攻撃は,最先端のバックドア防御・検出手法に耐性がある。
論文 参考訳(メタデータ) (2020-03-06T04:51:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。