論文の概要: StyleFool: Fooling Video Classification Systems via Style Transfer
- arxiv url: http://arxiv.org/abs/2203.16000v1
- Date: Wed, 30 Mar 2022 02:18:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-31 16:31:04.632815
- Title: StyleFool: Fooling Video Classification Systems via Style Transfer
- Title(参考訳): StyleFool: スタイル転送によるビデオ分類システム
- Authors: Yuxin Cao, Xi Xiao, Ruoxi Sun, Derui Wang, Minhui Xue, Sheng Wen
- Abstract要約: StyleFool(スタイルフール)は、ビデオ分類システムを騙すために、スタイル転送によるブラックボックスビデオの敵対攻撃である。
StyleFoolは、クエリの数や既存の防御に対する堅牢性の観点から、最先端の敵攻撃よりも優れています。
- 参考スコア(独自算出の注目度): 21.211952353347655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video classification systems are vulnerable to adversarial attacks, which can
create severe security problems in video verification. Current black-box
attacks need a large number of queries to succeed, resulting in high
computational overhead in the process of attack. On the other hand, attacks
with restricted perturbations are ineffective against defenses such as
denoising or adversarial training. In this paper, we focus on unrestricted
perturbations and propose StyleFool, a black-box video adversarial attack via
style transfer to fool the video classification system. StyleFool first
utilizes color theme proximity to select the best style image, which helps
avoid unnatural details in the stylized videos. Meanwhile, the target class
confidence is additionally considered in targeted attack to influence the
output distribution of the classifier by moving the stylized video closer to or
even across the decision boundary. A gradient-free method is then employed to
further optimize the adversarial perturbation. We carry out extensive
experiments to evaluate StyleFool on two standard datasets, UCF-101 and
HMDB-51. The experimental results suggest that StyleFool outperforms the
state-of-the-art adversarial attacks in terms of both number of queries and
robustness against existing defenses. We identify that 50% of the stylized
videos in untargeted attack do not need any query since they can already fool
the video classification model. Furthermore, we evaluate the
indistinguishability through a user study to show that the adversarial samples
of StyleFool look imperceptible to human eyes, despite unrestricted
perturbations.
- Abstract(参考訳): ビデオ分類システムは敵攻撃に対して脆弱であり、ビデオ検証において深刻なセキュリティ問題を引き起こす可能性がある。
現在のブラックボックス攻撃は成功するために大量のクエリを必要とするため、攻撃の過程で高い計算オーバーヘッドが発生する。
一方、制限された摂動による攻撃は、敵意や敵意の訓練などの防御には効果がない。
本稿では,制約のない摂動に着目し,動画分類システムを騙すために,スタイル転送によるブラックボックスビデオ敵攻撃であるstylefoolを提案する。
stylefoolはまず、カラーテーマの近接を利用して最良のスタイル画像を選択し、スタイル化されたビデオの不自然な詳細を避ける。
一方、分類器の出力分布に影響を与えるターゲット攻撃においては、分類された映像を判定境界に近づいたり、あるいは向こう側に移動させたりすることで、対象クラスの信頼度も考慮する。
その後、逆摂動をさらに最適化するために勾配のない方法が用いられる。
UCF-101とHMDB-51の2つの標準データセット上でStyleFoolを評価するための広範な実験を行った。
実験結果から、StyleFoolは、既存の防御に対するクエリ数と堅牢性の両方の観点から、最先端の敵攻撃よりも優れていることが示唆された。
非ターゲティング攻撃におけるスタイル化されたビデオの50%は、ビデオ分類モデルを騙すことができるため、クエリを必要としない。
さらに, ユーザ調査により, スタイルフイルの敵対的サンプルが, 拘束力のない摂動にもかかわらず, 人間の目には知覚できないことを示すために, 識別不能性を評価した。
関連論文リスト
- Query-Efficient Video Adversarial Attack with Stylized Logo [17.268709979991996]
ディープニューラルネットワーク(DNN)に基づくビデオ分類システムは、敵の例に対して非常に脆弱である。
我々は Stylized Logo Attack (SLA) と呼ばれる新しいブラックボックスビデオアタックフレームワークを提案する。
SLAは3つのステップで実施される。最初のステップはロゴのスタイル参照セットを構築することであり、生成された例をより自然にするだけでなく、ターゲットとする攻撃でより多くのターゲットクラス機能を実行することができる。
論文 参考訳(メタデータ) (2024-08-22T03:19:09Z) - LogoStyleFool: Vitiating Video Recognition Systems via Logo Style Transfer [17.191978308873814]
クリーンビデオにスタイリングされたロゴを追加することで,LogoStyleFoolという新しい攻撃フレームワークを提案する。
攻撃は、スタイル参照選択、強化学習に基づくロゴスタイル転送、摂動最適化の3段階に分けられる。
実験結果は、攻撃性能とセマンティック保存の観点から、3つの最先端のパッチベースの攻撃に対して、LogoStyleFoolの全体的な優位性を裏付けるものである。
論文 参考訳(メタデータ) (2023-12-15T16:44:38Z) - Inter-frame Accelerate Attack against Video Interpolation Models [73.28751441626754]
我々は,対戦型攻撃をVIFモデルに適用し,対戦型モデルに対して非常に脆弱であることを示す。
本稿では,フレーム間加速攻撃(IAA)と呼ばれる新しい攻撃手法を提案する。
本手法は従来の手法と同等の攻撃性能を達成しつつ,攻撃効率を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-05-11T03:08:48Z) - Adversarial Attacks on Deep Learning-based Video Compression and
Classification Systems [23.305818640220554]
深層学習に基づくビデオ圧縮と下流分類システムに対する敵対的攻撃に対する最初の体系的研究を行う。
本稿では,2つの対向目標を達成するために,ビデオ圧縮モデルのレート・歪み関係を制御できる適応的対向攻撃を提案する。
また、ダウンストリームビデオ分類サービスに対して、ターゲットと未ターゲットの攻撃に対する新たな目的を考案する。
論文 参考訳(メタデータ) (2022-03-18T22:42:20Z) - Attacking Video Recognition Models with Bullet-Screen Comments [79.53159486470858]
本稿では,BSC攻撃による映像認識モデルに対する新たな敵攻撃を提案する。
BSCは一種の意味のあるパッチと見なすことができ、クリーンなビデオに追加しても、ビデオの内容に対する人々の理解に影響を与えたり、人々の疑念を喚起したりしない。
論文 参考訳(メタデータ) (2021-10-29T08:55:50Z) - Boosting the Transferability of Video Adversarial Examples via Temporal
Translation [82.0745476838865]
敵の例は転送可能であり、現実世界のアプリケーションにおけるブラックボックス攻撃に対して実現可能である。
本稿では,一組の時間的翻訳ビデオクリップ上での対向的摂動を最適化する時間的翻訳攻撃手法を提案する。
Kinetics-400 データセットと UCF-101 データセットを用いた実験により,本手法がビデオ対向例の転送可能性を大幅に向上することを示した。
論文 参考訳(メタデータ) (2021-10-18T07:52:17Z) - Practical Relative Order Attack in Deep Ranking [99.332629807873]
ディープランキングシステム、すなわちオーダーアタックに対する新しい敵の攻撃を定式化します。
順序攻撃は、攻撃者が特定した順列に応じて、選択された候補群間の相対順序を暗黙的に変更する。
主要なeコマースプラットフォームでうまく実装されている。
論文 参考訳(メタデータ) (2021-03-09T06:41:18Z) - Local Black-box Adversarial Attacks: A Query Efficient Approach [64.98246858117476]
アドリアックは、セキュリティに敏感なシナリオにおけるディープニューラルネットワークの適用を脅かしている。
ブラックボックス攻撃における限られたクエリ内でのみクリーンな例の識別領域を摂動させる新しいフレームワークを提案する。
攻撃成功率の高いブラックボックス摂動時のクエリ効率を大幅に改善できることを示すため,広範な実験を行った。
論文 参考訳(メタデータ) (2021-01-04T15:32:16Z) - MultAV: Multiplicative Adversarial Videos [71.94264837503135]
本稿では,ビデオ認識モデルに対する新たな攻撃手法であるMultAVを提案する。
MultAVは乗算によってビデオデータに摂動を課す。
実験結果から,MultAV に対する加法攻撃に対して逆向きに訓練したモデルでは,MultAV に対するロバスト性が低いことが示された。
論文 参考訳(メタデータ) (2020-09-17T04:34:39Z) - Sparse Black-box Video Attack with Reinforcement Learning [14.624074868199287]
ブラックボックスビデオ攻撃を強化学習フレームワークに定式化する。
RLの環境を認識モデルとし、RLのエージェントがフレーム選択の役割を果たす。
我々は2つの主流ビデオ認識モデルを用いて一連の実験を行う。
論文 参考訳(メタデータ) (2020-01-11T14:09:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。