論文の概要: Attacking Video Recognition Models with Bullet-Screen Comments
- arxiv url: http://arxiv.org/abs/2110.15629v1
- Date: Fri, 29 Oct 2021 08:55:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-01 21:24:55.577959
- Title: Attacking Video Recognition Models with Bullet-Screen Comments
- Title(参考訳): バーストスクリーンコメントによるビデオ認識モデルへの攻撃
- Authors: Kai Chen, Zhipeng Wei, Jingjing Chen, Zuxuan Wu, Yu-Gang Jiang
- Abstract要約: 本稿では,BSC攻撃による映像認識モデルに対する新たな敵攻撃を提案する。
BSCは一種の意味のあるパッチと見なすことができ、クリーンなビデオに追加しても、ビデオの内容に対する人々の理解に影響を与えたり、人々の疑念を喚起したりしない。
- 参考スコア(独自算出の注目度): 79.53159486470858
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent research has demonstrated that Deep Neural Networks (DNNs) are
vulnerable to adversarial patches which introducing perceptible but localized
changes to the input. Nevertheless, existing approaches have focused on
generating adversarial patches on images, their counterparts in videos have
been less explored. Compared with images, attacking videos is much more
challenging as it needs to consider not only spatial cues but also temporal
cues. To close this gap, we introduce a novel adversarial attack in this paper,
the bullet-screen comment (BSC) attack, which attacks video recognition models
with BSCs. Specifically, adversarial BSCs are generated with a Reinforcement
Learning (RL) framework, where the environment is set as the target model and
the agent plays the role of selecting the position and transparency of each
BSC. By continuously querying the target models and receiving feedback, the
agent gradually adjusts its selection strategies in order to achieve a high
fooling rate with non-overlapping BSCs. As BSCs can be regarded as a kind of
meaningful patch, adding it to a clean video will not affect people' s
understanding of the video content, nor will arouse people' s suspicion. We
conduct extensive experiments to verify the effectiveness of the proposed
method. On both UCF-101 and HMDB-51 datasets, our BSC attack method can achieve
about 90\% fooling rate when attack three mainstream video recognition models,
while only occluding \textless 8\% areas in the video.
- Abstract(参考訳): 近年の研究では、ディープニューラルネットワーク(DNN)は、入力に知覚的だが局所的な変化をもたらす敵のパッチに弱いことが示されている。
それにもかかわらず、既存のアプローチは画像に逆のパッチを生成することに重点を置いている。
画像と比較すると、ビデオの攻撃は空間的手がかりだけでなく時間的手がかりも考慮する必要があるため、はるかに難しい。
このギャップを埋めるために,本稿では,BSCを用いた映像認識モデルを攻撃する弾幕コメント(BSC)攻撃という,新たな敵攻撃を導入する。
具体的には、環境を対象モデルとして設定し、エージェントが各BSCの位置と透明性を選択する役割を果たす強化学習(RL)フレームワークを用いて、敵対的BSCを生成する。
ターゲットモデルを継続的にクエリし、フィードバックを受け取ることで、エージェントは、非重複のBSCで高い不正率を達成するために、選択戦略を徐々に調整する。
BSCは一種の意味のあるパッチと見なすことができるため、クリーンなビデオに追加しても、ビデオの内容に対する人々の理解に影響を与えたり、人々の疑念を喚起したりしない。
提案手法の有効性を検証するために広範な実験を行った。
UCF-101 と HMDB-51 の2つのデータセットにおいて,本手法は,ビデオ中の <textless 8\% 領域のみを除外しながら,3 つの主流ビデオ認識モデルを攻撃する場合に,約90% % の不正行為率を達成することができる。
関連論文リスト
- Query-Efficient Video Adversarial Attack with Stylized Logo [17.268709979991996]
ディープニューラルネットワーク(DNN)に基づくビデオ分類システムは、敵の例に対して非常に脆弱である。
我々は Stylized Logo Attack (SLA) と呼ばれる新しいブラックボックスビデオアタックフレームワークを提案する。
SLAは3つのステップで実施される。最初のステップはロゴのスタイル参照セットを構築することであり、生成された例をより自然にするだけでなく、ターゲットとする攻撃でより多くのターゲットクラス機能を実行することができる。
論文 参考訳(メタデータ) (2024-08-22T03:19:09Z) - Temporal-Distributed Backdoor Attack Against Video Based Action
Recognition [21.916002204426853]
ビデオデータに対する、シンプルで効果的なバックドア攻撃を導入する。
我々の提案した攻撃は、変換されたドメインに摂動を加えることで、ビデオフレームに知覚不能で時間的に分散されたトリガーを配置する。
論文 参考訳(メタデータ) (2023-08-21T22:31:54Z) - Inter-frame Accelerate Attack against Video Interpolation Models [73.28751441626754]
我々は,対戦型攻撃をVIFモデルに適用し,対戦型モデルに対して非常に脆弱であることを示す。
本稿では,フレーム間加速攻撃(IAA)と呼ばれる新しい攻撃手法を提案する。
本手法は従来の手法と同等の攻撃性能を達成しつつ,攻撃効率を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-05-11T03:08:48Z) - Efficient Decision-based Black-box Patch Attacks on Video Recognition [33.5640770588839]
この研究はまず、意思決定に基づくビデオモデルに対するパッチ攻撃について検討する。
問合せ効率の高い攻撃を実現するために,時空間差分進化フレームワークを提案する。
STDEは、脅威、効率、非受容性の点で最先端のパフォーマンスを実証している。
論文 参考訳(メタデータ) (2023-03-21T15:08:35Z) - Temporal Shuffling for Defending Deep Action Recognition Models against
Adversarial Attacks [67.58887471137436]
本研究では,動作認識モデルに対する対人攻撃に対して,入力ビデオの時間的シャッフルを用いた新しい防御手法を開発した。
我々の知る限りでは、これは3D CNNに基づく映像行動認識モデルのための追加トレーニングなしで防御方法を設計する最初の試みである。
論文 参考訳(メタデータ) (2021-12-15T06:57:01Z) - Boosting the Transferability of Video Adversarial Examples via Temporal
Translation [82.0745476838865]
敵の例は転送可能であり、現実世界のアプリケーションにおけるブラックボックス攻撃に対して実現可能である。
本稿では,一組の時間的翻訳ビデオクリップ上での対向的摂動を最適化する時間的翻訳攻撃手法を提案する。
Kinetics-400 データセットと UCF-101 データセットを用いた実験により,本手法がビデオ対向例の転送可能性を大幅に向上することを示した。
論文 参考訳(メタデータ) (2021-10-18T07:52:17Z) - PAT: Pseudo-Adversarial Training For Detecting Adversarial Videos [20.949656274807904]
我々は,攻撃の知識を必要とせず,映像中の対角フレームを検出するための,Pseudo-versa-Adrial Training (PAT) という,新しい単純なアルゴリズムを提案する。
UCF-101および20BN-Jesterデータセットによる実験結果から、PATは高い検出率で対向的なビデオフレームやビデオを検出することができることがわかった。
論文 参考訳(メタデータ) (2021-09-13T04:05:46Z) - Overcomplete Representations Against Adversarial Videos [72.04912755926524]
敵対ビデオ(OUDefend)に対する防御のための新しいオーバー・アンド・アンダー完全修復ネットワークを提案します。
OUDefendは、これらの2つの表現を学習することで、ローカル機能とグローバル機能のバランスをとるように設計されている。
実験の結果,画像に焦点をあてた防御はビデオに効果がない可能性があるが,oudefendは異なるタイプの敵ビデオに対して頑健性を高める。
論文 参考訳(メタデータ) (2020-12-08T08:00:17Z) - MultAV: Multiplicative Adversarial Videos [71.94264837503135]
本稿では,ビデオ認識モデルに対する新たな攻撃手法であるMultAVを提案する。
MultAVは乗算によってビデオデータに摂動を課す。
実験結果から,MultAV に対する加法攻撃に対して逆向きに訓練したモデルでは,MultAV に対するロバスト性が低いことが示された。
論文 参考訳(メタデータ) (2020-09-17T04:34:39Z) - Sparse Black-box Video Attack with Reinforcement Learning [14.624074868199287]
ブラックボックスビデオ攻撃を強化学習フレームワークに定式化する。
RLの環境を認識モデルとし、RLのエージェントがフレーム選択の役割を果たす。
我々は2つの主流ビデオ認識モデルを用いて一連の実験を行う。
論文 参考訳(メタデータ) (2020-01-11T14:09:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。