論文の概要: LogoStyleFool: Vitiating Video Recognition Systems via Logo Style Transfer
- arxiv url: http://arxiv.org/abs/2312.09935v2
- Date: Mon, 1 Apr 2024 05:57:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 11:33:25.243086
- Title: LogoStyleFool: Vitiating Video Recognition Systems via Logo Style Transfer
- Title(参考訳): LogoStyleFool:Logoスタイル転送によるビデオ認識システムの実現
- Authors: Yuxin Cao, Ziyu Zhao, Xi Xiao, Derui Wang, Minhui Xue, Jin Lu,
- Abstract要約: クリーンビデオにスタイリングされたロゴを追加することで,LogoStyleFoolという新しい攻撃フレームワークを提案する。
攻撃は、スタイル参照選択、強化学習に基づくロゴスタイル転送、摂動最適化の3段階に分けられる。
実験結果は、攻撃性能とセマンティック保存の観点から、3つの最先端のパッチベースの攻撃に対して、LogoStyleFoolの全体的な優位性を裏付けるものである。
- 参考スコア(独自算出の注目度): 17.191978308873814
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video recognition systems are vulnerable to adversarial examples. Recent studies show that style transfer-based and patch-based unrestricted perturbations can effectively improve attack efficiency. These attacks, however, face two main challenges: 1) Adding large stylized perturbations to all pixels reduces the naturalness of the video and such perturbations can be easily detected. 2) Patch-based video attacks are not extensible to targeted attacks due to the limited search space of reinforcement learning that has been widely used in video attacks recently. In this paper, we focus on the video black-box setting and propose a novel attack framework named LogoStyleFool by adding a stylized logo to the clean video. We separate the attack into three stages: style reference selection, reinforcement-learning-based logo style transfer, and perturbation optimization. We solve the first challenge by scaling down the perturbation range to a regional logo, while the second challenge is addressed by complementing an optimization stage after reinforcement learning. Experimental results substantiate the overall superiority of LogoStyleFool over three state-of-the-art patch-based attacks in terms of attack performance and semantic preservation. Meanwhile, LogoStyleFool still maintains its performance against two existing patch-based defense methods. We believe that our research is beneficial in increasing the attention of the security community to such subregional style transfer attacks.
- Abstract(参考訳): ビデオ認識システムは敵の例に弱い。
近年の研究では、スタイル転送ベースおよびパッチベース非制限摂動が攻撃効率を効果的に改善できることが示されている。
しかし、これらの攻撃は2つの大きな課題に直面している。
1)全ての画素に大きなスタイリングされた摂動を加えると、ビデオの自然性が低下し、そのような摂動が容易に検出できる。
2)近年のビデオ攻撃で広く使われている強化学習の検索スペースが限られているため,パッチベースのビデオ攻撃はターゲット攻撃には拡張できない。
本稿では,ビデオブラックボックスの設定に焦点をあて,クリーンビデオにスタイリングされたロゴを追加することで,LogoStyleFoolという新しい攻撃フレームワークを提案する。
攻撃は、スタイル参照選択、強化学習に基づくロゴスタイル転送、摂動最適化の3段階に分けられる。
第1の課題は,地域ロゴへの摂動範囲を拡大することで解決し,第2の課題は,強化学習後の最適化段階を補完することで解決する。
実験結果は、攻撃性能とセマンティック保存の観点から、3つの最先端のパッチベースの攻撃に対して、LogoStyleFoolの全体的な優位性を裏付けるものである。
一方、LogoStyleFoolは、既存の2つのパッチベースのディフェンスメソッドに対するパフォーマンスを維持している。
我々は,このようなサブリージョンスタイルの転送攻撃に対して,セキュリティコミュニティの注意を喚起する上で,我々の研究が有益であると信じている。
関連論文リスト
- UniVST: A Unified Framework for Training-free Localized Video Style Transfer [66.69471376934034]
ローカライズドビデオスタイル転送のための統一フレームワークUniVSTを提案する。
トレーニングは不要で、ビデオ全体にわたってスタイルを転送する既存の方法に対して、明確なアドバンテージを提供する。
論文 参考訳(メタデータ) (2024-10-26T05:28:02Z) - Query-Efficient Video Adversarial Attack with Stylized Logo [17.268709979991996]
ディープニューラルネットワーク(DNN)に基づくビデオ分類システムは、敵の例に対して非常に脆弱である。
我々は Stylized Logo Attack (SLA) と呼ばれる新しいブラックボックスビデオアタックフレームワークを提案する。
SLAは3つのステップで実施される。最初のステップはロゴのスタイル参照セットを構築することであり、生成された例をより自然にするだけでなく、ターゲットとする攻撃でより多くのターゲットクラス機能を実行することができる。
論文 参考訳(メタデータ) (2024-08-22T03:19:09Z) - LocalStyleFool: Regional Video Style Transfer Attack Using Segment Anything Model [19.37714374680383]
LocalStyleFoolは、ビデオ上の地域スタイルのトランスファーベースの摂動を重畳する、ブラックボックスビデオの敵対攻撃の改良だ。
そこで我々は、LocalStyleFoolがフレーム内およびフレーム間自然性の両方を人為的な調査によって改善できることを実証した。
論文 参考訳(メタデータ) (2024-03-18T10:53:00Z) - Generating Transferable and Stealthy Adversarial Patch via
Attention-guided Adversarial Inpainting [12.974292128917222]
本稿では,Adv-Inpaintingと呼ばれる2段階の対向パッチ攻撃を提案する。
第1段階では,攻撃者からそれぞれスタイル特徴と識別特徴を抽出する。
提案するレイヤは、優先コンテキスト情報を完全に活用することにより、アイデンティティとスタイルの埋め込みを適応的に融合させることができる。
第2段階では,新たな境界分散損失を有するAPR-Net(Adversarial Patch Refinement Network)を設計する。
論文 参考訳(メタデータ) (2023-08-10T03:44:10Z) - Adv-Attribute: Inconspicuous and Transferable Adversarial Attack on Face
Recognition [111.1952945740271]
Adv-Attribute (Adv-Attribute) は、顔認証に対する不明瞭で伝達可能な攻撃を生成するように設計されている。
FFHQとCelebA-HQデータセットの実験は、提案されたAdv-Attributeメソッドが最先端の攻撃成功率を達成することを示している。
論文 参考訳(メタデータ) (2022-10-13T09:56:36Z) - StyleFool: Fooling Video Classification Systems via Style Transfer [28.19682215735232]
StyleFool(スタイルフール)は、ビデオ分類システムを騙すために、スタイル転送によるブラックボックスビデオの敵対攻撃である。
StyleFoolは、クエリの数と既存の防御に対する堅牢性の観点から、最先端の敵攻撃よりも優れています。
論文 参考訳(メタデータ) (2022-03-30T02:18:16Z) - Projective Ranking-based GNN Evasion Attacks [52.85890533994233]
グラフニューラルネットワーク(GNN)は、グラフ関連のタスクに対して、有望な学習方法を提供する。
GNNは敵の攻撃の危険にさらされている。
論文 参考訳(メタデータ) (2022-02-25T21:52:09Z) - Attacking Video Recognition Models with Bullet-Screen Comments [79.53159486470858]
本稿では,BSC攻撃による映像認識モデルに対する新たな敵攻撃を提案する。
BSCは一種の意味のあるパッチと見なすことができ、クリーンなビデオに追加しても、ビデオの内容に対する人々の理解に影響を与えたり、人々の疑念を喚起したりしない。
論文 参考訳(メタデータ) (2021-10-29T08:55:50Z) - Overcomplete Representations Against Adversarial Videos [72.04912755926524]
敵対ビデオ(OUDefend)に対する防御のための新しいオーバー・アンド・アンダー完全修復ネットワークを提案します。
OUDefendは、これらの2つの表現を学習することで、ローカル機能とグローバル機能のバランスをとるように設計されている。
実験の結果,画像に焦点をあてた防御はビデオに効果がない可能性があるが,oudefendは異なるタイプの敵ビデオに対して頑健性を高める。
論文 参考訳(メタデータ) (2020-12-08T08:00:17Z) - Towards Feature Space Adversarial Attack [18.874224858723494]
本稿では,画像分類のためのニューラルネットに対する新たな敵攻撃を提案する。
私たちの攻撃は、抽象的な特徴、具体的にはスタイルを表す特徴の摂動に焦点を当てています。
我々の攻撃は、最先端の攻撃よりも自然に見える敵のサンプルを生成できることを示す。
論文 参考訳(メタデータ) (2020-04-26T13:56:31Z) - Deflecting Adversarial Attacks [94.85315681223702]
我々は、攻撃者が攻撃対象クラスに似た入力を生成することによって、敵攻撃を「防御」するこのサイクルを終わらせる新しいアプローチを提案する。
本稿ではまず,3つの検出機構を組み合わせたカプセルネットワークに基づくより強力な防御手法を提案する。
論文 参考訳(メタデータ) (2020-02-18T06:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。