論文の概要: LogoStyleFool: Vitiating Video Recognition Systems via Logo Style
Transfer
- arxiv url: http://arxiv.org/abs/2312.09935v1
- Date: Fri, 15 Dec 2023 16:44:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-18 14:54:49.700992
- Title: LogoStyleFool: Vitiating Video Recognition Systems via Logo Style
Transfer
- Title(参考訳): LogoStyleFool:Logoスタイル転送によるビデオ認識システムの実現
- Authors: Yuxin Cao, Ziyu Zhao, Xi Xiao, Derui Wang, Minhui Xue, Jin Lu
- Abstract要約: クリーンビデオにスタイリングされたロゴを追加することで,LogoStyleFoolという新しい攻撃フレームワークを提案する。
攻撃は、スタイル参照選択、強化学習に基づくロゴスタイル転送、摂動最適化の3段階に分けられる。
実験結果は、攻撃性能とセマンティック保存の観点から、3つの最先端のパッチベースの攻撃に対して、LogoStyleFoolの全体的な優位性を裏付けるものである。
- 参考スコア(独自算出の注目度): 18.216892215876218
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video recognition systems are vulnerable to adversarial examples. Recent
studies show that style transfer-based and patch-based unrestricted
perturbations can effectively improve attack efficiency. These attacks,
however, face two main challenges: 1) Adding large stylized perturbations to
all pixels reduces the naturalness of the video and such perturbations can be
easily detected. 2) Patch-based video attacks are not extensible to targeted
attacks due to the limited search space of reinforcement learning that has been
widely used in video attacks recently. In this paper, we focus on the video
black-box setting and propose a novel attack framework named LogoStyleFool by
adding a stylized logo to the clean video. We separate the attack into three
stages: style reference selection, reinforcement-learning-based logo style
transfer, and perturbation optimization. We solve the first challenge by
scaling down the perturbation range to a regional logo, while the second
challenge is addressed by complementing an optimization stage after
reinforcement learning. Experimental results substantiate the overall
superiority of LogoStyleFool over three state-of-the-art patch-based attacks in
terms of attack performance and semantic preservation. Meanwhile, LogoStyleFool
still maintains its performance against two existing patch-based defense
methods. We believe that our research is beneficial in increasing the attention
of the security community to such subregional style transfer attacks.
- Abstract(参考訳): ビデオ認識システムは、敵の例に弱い。
近年の研究では、スタイル転送ベースおよびパッチベース非制限摂動が攻撃効率を効果的に改善できることが示されている。
しかし、これらの攻撃は2つの大きな課題に直面している。
1) すべての画素に大きなスタイリッシュな摂動を加えると、映像の自然性が低下し、そのような摂動が容易に検出できる。
2)近年の映像攻撃で広く使用されている強化学習の検索範囲が限られているため,パッチベースのビデオ攻撃は標的攻撃に拡張できない。
本稿では,ビデオのブラックボックス設定に着目し,クリーンビデオにスタイリッシュなロゴを追加することで,logostylefoolという新たな攻撃フレームワークを提案する。
攻撃を3段階に分けて,スタイル参照選択,強化学習に基づくロゴ転送,摂動最適化を行った。
第1の課題は,地域ロゴへの摂動範囲を拡大し,第2の課題は,強化学習後の最適化段階を補完することである。
実験結果は,攻撃性能と意味保存の観点から,3つの最先端パッチベース攻撃に対するlogostylefoolの総合的優位性を検証した。
一方、LogoStyleFoolは、既存の2つのパッチベースの防御メソッドに対するパフォーマンスを維持している。
今回の研究は,セキュリティコミュニティの注目を,このようなサブリージョンスタイル転送攻撃に高める上で有益であると考えています。
関連論文リスト
- UniVST: A Unified Framework for Training-free Localized Video Style Transfer [66.69471376934034]
ローカライズドビデオスタイル転送のための統一フレームワークUniVSTを提案する。
トレーニングは不要で、ビデオ全体にわたってスタイルを転送する既存の方法に対して、明確なアドバンテージを提供する。
論文 参考訳(メタデータ) (2024-10-26T05:28:02Z) - Query-Efficient Video Adversarial Attack with Stylized Logo [17.268709979991996]
ディープニューラルネットワーク(DNN)に基づくビデオ分類システムは、敵の例に対して非常に脆弱である。
我々は Stylized Logo Attack (SLA) と呼ばれる新しいブラックボックスビデオアタックフレームワークを提案する。
SLAは3つのステップで実施される。最初のステップはロゴのスタイル参照セットを構築することであり、生成された例をより自然にするだけでなく、ターゲットとする攻撃でより多くのターゲットクラス機能を実行することができる。
論文 参考訳(メタデータ) (2024-08-22T03:19:09Z) - LocalStyleFool: Regional Video Style Transfer Attack Using Segment Anything Model [19.37714374680383]
LocalStyleFoolは、ビデオ上の地域スタイルのトランスファーベースの摂動を重畳する、ブラックボックスビデオの敵対攻撃の改良だ。
そこで我々は、LocalStyleFoolがフレーム内およびフレーム間自然性の両方を人為的な調査によって改善できることを実証した。
論文 参考訳(メタデータ) (2024-03-18T10:53:00Z) - Generating Transferable and Stealthy Adversarial Patch via
Attention-guided Adversarial Inpainting [12.974292128917222]
本稿では,Adv-Inpaintingと呼ばれる2段階の対向パッチ攻撃を提案する。
第1段階では,攻撃者からそれぞれスタイル特徴と識別特徴を抽出する。
提案するレイヤは、優先コンテキスト情報を完全に活用することにより、アイデンティティとスタイルの埋め込みを適応的に融合させることができる。
第2段階では,新たな境界分散損失を有するAPR-Net(Adversarial Patch Refinement Network)を設計する。
論文 参考訳(メタデータ) (2023-08-10T03:44:10Z) - Adv-Attribute: Inconspicuous and Transferable Adversarial Attack on Face
Recognition [111.1952945740271]
Adv-Attribute (Adv-Attribute) は、顔認証に対する不明瞭で伝達可能な攻撃を生成するように設計されている。
FFHQとCelebA-HQデータセットの実験は、提案されたAdv-Attributeメソッドが最先端の攻撃成功率を達成することを示している。
論文 参考訳(メタデータ) (2022-10-13T09:56:36Z) - StyleFool: Fooling Video Classification Systems via Style Transfer [28.19682215735232]
StyleFool(スタイルフール)は、ビデオ分類システムを騙すために、スタイル転送によるブラックボックスビデオの敵対攻撃である。
StyleFoolは、クエリの数と既存の防御に対する堅牢性の観点から、最先端の敵攻撃よりも優れています。
論文 参考訳(メタデータ) (2022-03-30T02:18:16Z) - Projective Ranking-based GNN Evasion Attacks [52.85890533994233]
グラフニューラルネットワーク(GNN)は、グラフ関連のタスクに対して、有望な学習方法を提供する。
GNNは敵の攻撃の危険にさらされている。
論文 参考訳(メタデータ) (2022-02-25T21:52:09Z) - Attacking Video Recognition Models with Bullet-Screen Comments [79.53159486470858]
本稿では,BSC攻撃による映像認識モデルに対する新たな敵攻撃を提案する。
BSCは一種の意味のあるパッチと見なすことができ、クリーンなビデオに追加しても、ビデオの内容に対する人々の理解に影響を与えたり、人々の疑念を喚起したりしない。
論文 参考訳(メタデータ) (2021-10-29T08:55:50Z) - Overcomplete Representations Against Adversarial Videos [72.04912755926524]
敵対ビデオ(OUDefend)に対する防御のための新しいオーバー・アンド・アンダー完全修復ネットワークを提案します。
OUDefendは、これらの2つの表現を学習することで、ローカル機能とグローバル機能のバランスをとるように設計されている。
実験の結果,画像に焦点をあてた防御はビデオに効果がない可能性があるが,oudefendは異なるタイプの敵ビデオに対して頑健性を高める。
論文 参考訳(メタデータ) (2020-12-08T08:00:17Z) - Towards Feature Space Adversarial Attack [18.874224858723494]
本稿では,画像分類のためのニューラルネットに対する新たな敵攻撃を提案する。
私たちの攻撃は、抽象的な特徴、具体的にはスタイルを表す特徴の摂動に焦点を当てています。
我々の攻撃は、最先端の攻撃よりも自然に見える敵のサンプルを生成できることを示す。
論文 参考訳(メタデータ) (2020-04-26T13:56:31Z) - Deflecting Adversarial Attacks [94.85315681223702]
我々は、攻撃者が攻撃対象クラスに似た入力を生成することによって、敵攻撃を「防御」するこのサイクルを終わらせる新しいアプローチを提案する。
本稿ではまず,3つの検出機構を組み合わせたカプセルネットワークに基づくより強力な防御手法を提案する。
論文 参考訳(メタデータ) (2020-02-18T06:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。