論文の概要: StyleFool: Fooling Video Classification Systems via Style Transfer
- arxiv url: http://arxiv.org/abs/2203.16000v4
- Date: Mon, 1 Apr 2024 05:51:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 23:57:15.421158
- Title: StyleFool: Fooling Video Classification Systems via Style Transfer
- Title(参考訳): StyleFool: スタイル転送によるビデオ分類システム
- Authors: Yuxin Cao, Xi Xiao, Ruoxi Sun, Derui Wang, Minhui Xue, Sheng Wen,
- Abstract要約: StyleFool(スタイルフール)は、ビデオ分類システムを騙すために、スタイル転送によるブラックボックスビデオの敵対攻撃である。
StyleFoolは、クエリの数と既存の防御に対する堅牢性の観点から、最先端の敵攻撃よりも優れています。
- 参考スコア(独自算出の注目度): 28.19682215735232
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video classification systems are vulnerable to adversarial attacks, which can create severe security problems in video verification. Current black-box attacks need a large number of queries to succeed, resulting in high computational overhead in the process of attack. On the other hand, attacks with restricted perturbations are ineffective against defenses such as denoising or adversarial training. In this paper, we focus on unrestricted perturbations and propose StyleFool, a black-box video adversarial attack via style transfer to fool the video classification system. StyleFool first utilizes color theme proximity to select the best style image, which helps avoid unnatural details in the stylized videos. Meanwhile, the target class confidence is additionally considered in targeted attacks to influence the output distribution of the classifier by moving the stylized video closer to or even across the decision boundary. A gradient-free method is then employed to further optimize the adversarial perturbations. We carry out extensive experiments to evaluate StyleFool on two standard datasets, UCF-101 and HMDB-51. The experimental results demonstrate that StyleFool outperforms the state-of-the-art adversarial attacks in terms of both the number of queries and the robustness against existing defenses. Moreover, 50% of the stylized videos in untargeted attacks do not need any query since they can already fool the video classification model. Furthermore, we evaluate the indistinguishability through a user study to show that the adversarial samples of StyleFool look imperceptible to human eyes, despite unrestricted perturbations.
- Abstract(参考訳): ビデオ分類システムは、敵対的攻撃に対して脆弱であり、ビデオ検証において深刻なセキュリティ問題を引き起こす可能性がある。
現在のブラックボックス攻撃では、多数のクエリを成功させる必要があり、結果として攻撃の過程で高い計算オーバーヘッドが発生する。
一方、制限された摂動による攻撃は、妄想や敵の訓練のような防衛には効果がない。
本稿では,制限のない摂動に着目し,映像分類システムを騙すために,スタイル転送によるブラックボックスビデオ対逆攻撃であるStyleFoolを提案する。
StyleFoolはまずカラーテーマに近づき、最高のスタイルのイメージを選択する。
一方、分類器の出力分布に影響を与えるターゲット攻撃においては、分類された映像を判定境界に近づいたり、あるいは向こう側に移動させたりすることで、対象クラスの信頼度も考慮する。
次に、逆方向の摂動をさらに最適化するために勾配のない手法を用いる。
UCF-101とHMDB-51の2つの標準データセット上でStyleFoolを評価するための広範な実験を行った。
実験の結果、StyleFoolは、クエリの数と既存の防御に対する堅牢性の両方の観点から、最先端の敵攻撃よりも優れていることが示された。
さらに、標的外攻撃におけるスタイリングされたビデオの50%は、既にビデオ分類モデルを騙すことができるため、クエリを一切必要としない。
さらに,本研究では,制限のない摂動にも拘わらず,StyleFoolの敵対的サンプルが人間の目には認められないことを示すために,ユーザスタディによる不明瞭さを評価した。
関連論文リスト
- Query-Efficient Video Adversarial Attack with Stylized Logo [17.268709979991996]
ディープニューラルネットワーク(DNN)に基づくビデオ分類システムは、敵の例に対して非常に脆弱である。
我々は Stylized Logo Attack (SLA) と呼ばれる新しいブラックボックスビデオアタックフレームワークを提案する。
SLAは3つのステップで実施される。最初のステップはロゴのスタイル参照セットを構築することであり、生成された例をより自然にするだけでなく、ターゲットとする攻撃でより多くのターゲットクラス機能を実行することができる。
論文 参考訳(メタデータ) (2024-08-22T03:19:09Z) - LogoStyleFool: Vitiating Video Recognition Systems via Logo Style Transfer [17.191978308873814]
クリーンビデオにスタイリングされたロゴを追加することで,LogoStyleFoolという新しい攻撃フレームワークを提案する。
攻撃は、スタイル参照選択、強化学習に基づくロゴスタイル転送、摂動最適化の3段階に分けられる。
実験結果は、攻撃性能とセマンティック保存の観点から、3つの最先端のパッチベースの攻撃に対して、LogoStyleFoolの全体的な優位性を裏付けるものである。
論文 参考訳(メタデータ) (2023-12-15T16:44:38Z) - Inter-frame Accelerate Attack against Video Interpolation Models [73.28751441626754]
我々は,対戦型攻撃をVIFモデルに適用し,対戦型モデルに対して非常に脆弱であることを示す。
本稿では,フレーム間加速攻撃(IAA)と呼ばれる新しい攻撃手法を提案する。
本手法は従来の手法と同等の攻撃性能を達成しつつ,攻撃効率を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-05-11T03:08:48Z) - Adversarial Attacks on Deep Learning-based Video Compression and
Classification Systems [23.305818640220554]
深層学習に基づくビデオ圧縮と下流分類システムに対する敵対的攻撃に対する最初の体系的研究を行う。
本稿では,2つの対向目標を達成するために,ビデオ圧縮モデルのレート・歪み関係を制御できる適応的対向攻撃を提案する。
また、ダウンストリームビデオ分類サービスに対して、ターゲットと未ターゲットの攻撃に対する新たな目的を考案する。
論文 参考訳(メタデータ) (2022-03-18T22:42:20Z) - Attacking Video Recognition Models with Bullet-Screen Comments [79.53159486470858]
本稿では,BSC攻撃による映像認識モデルに対する新たな敵攻撃を提案する。
BSCは一種の意味のあるパッチと見なすことができ、クリーンなビデオに追加しても、ビデオの内容に対する人々の理解に影響を与えたり、人々の疑念を喚起したりしない。
論文 参考訳(メタデータ) (2021-10-29T08:55:50Z) - Boosting the Transferability of Video Adversarial Examples via Temporal
Translation [82.0745476838865]
敵の例は転送可能であり、現実世界のアプリケーションにおけるブラックボックス攻撃に対して実現可能である。
本稿では,一組の時間的翻訳ビデオクリップ上での対向的摂動を最適化する時間的翻訳攻撃手法を提案する。
Kinetics-400 データセットと UCF-101 データセットを用いた実験により,本手法がビデオ対向例の転送可能性を大幅に向上することを示した。
論文 参考訳(メタデータ) (2021-10-18T07:52:17Z) - Practical Relative Order Attack in Deep Ranking [99.332629807873]
ディープランキングシステム、すなわちオーダーアタックに対する新しい敵の攻撃を定式化します。
順序攻撃は、攻撃者が特定した順列に応じて、選択された候補群間の相対順序を暗黙的に変更する。
主要なeコマースプラットフォームでうまく実装されている。
論文 参考訳(メタデータ) (2021-03-09T06:41:18Z) - Local Black-box Adversarial Attacks: A Query Efficient Approach [64.98246858117476]
アドリアックは、セキュリティに敏感なシナリオにおけるディープニューラルネットワークの適用を脅かしている。
ブラックボックス攻撃における限られたクエリ内でのみクリーンな例の識別領域を摂動させる新しいフレームワークを提案する。
攻撃成功率の高いブラックボックス摂動時のクエリ効率を大幅に改善できることを示すため,広範な実験を行った。
論文 参考訳(メタデータ) (2021-01-04T15:32:16Z) - MultAV: Multiplicative Adversarial Videos [71.94264837503135]
本稿では,ビデオ認識モデルに対する新たな攻撃手法であるMultAVを提案する。
MultAVは乗算によってビデオデータに摂動を課す。
実験結果から,MultAV に対する加法攻撃に対して逆向きに訓練したモデルでは,MultAV に対するロバスト性が低いことが示された。
論文 参考訳(メタデータ) (2020-09-17T04:34:39Z) - Sparse Black-box Video Attack with Reinforcement Learning [14.624074868199287]
ブラックボックスビデオ攻撃を強化学習フレームワークに定式化する。
RLの環境を認識モデルとし、RLのエージェントがフレーム選択の役割を果たす。
我々は2つの主流ビデオ認識モデルを用いて一連の実験を行う。
論文 参考訳(メタデータ) (2020-01-11T14:09:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。