論文の概要: Cross-Modal Transferable Adversarial Attacks from Images to Videos
- arxiv url: http://arxiv.org/abs/2112.05379v1
- Date: Fri, 10 Dec 2021 08:19:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-13 21:58:39.648125
- Title: Cross-Modal Transferable Adversarial Attacks from Images to Videos
- Title(参考訳): 画像からビデオへのクロスモーダル転送可能な広告攻撃
- Authors: Zhipeng Wei, Jingjing Chen, Zuxuan Wu, Yu-Gang Jiang
- Abstract要約: 近年の研究では、一方のホワイトボックスモデルで手作りされた敵の例は、他のブラックボックスモデルを攻撃するために使用できることが示されている。
本稿では,イメージ・トゥ・ビデオ(I2V)攻撃と呼ばれる,シンプルだが効果的なクロスモーダル・アタック手法を提案する。
I2Vは、事前訓練された画像モデルの特徴と良質な例とのコサイン類似性を最小化して、対向フレームを生成する。
- 参考スコア(独自算出の注目度): 82.0745476838865
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent studies have shown that adversarial examples hand-crafted on one
white-box model can be used to attack other black-box models. Such cross-model
transferability makes it feasible to perform black-box attacks, which has
raised security concerns for real-world DNNs applications. Nevertheless,
existing works mostly focus on investigating the adversarial transferability
across different deep models that share the same modality of input data. The
cross-modal transferability of adversarial perturbation has never been
explored. This paper investigates the transferability of adversarial
perturbation across different modalities, i.e., leveraging adversarial
perturbation generated on white-box image models to attack black-box video
models. Specifically, motivated by the observation that the low-level feature
space between images and video frames are similar, we propose a simple yet
effective cross-modal attack method, named as Image To Video (I2V) attack. I2V
generates adversarial frames by minimizing the cosine similarity between
features of pre-trained image models from adversarial and benign examples, then
combines the generated adversarial frames to perform black-box attacks on video
recognition models. Extensive experiments demonstrate that I2V can achieve high
attack success rates on different black-box video recognition models. On
Kinetics-400 and UCF-101, I2V achieves an average attack success rate of 77.88%
and 65.68%, respectively, which sheds light on the feasibility of cross-modal
adversarial attacks.
- Abstract(参考訳): 近年の研究では、あるホワイトボックスモデルで手作りされた敵の例は、他のブラックボックスモデルを攻撃するために使用できることが示されている。
このようなクロスモデル転送性は、実際のDNNアプリケーションに対するセキュリティ上の懸念を生じさせるブラックボックス攻撃の実行を可能にする。
それにもかかわらず、既存の研究は主に、入力データの同じモダリティを共有する異なる深層モデル間での逆転送可能性の調査に重点を置いている。
逆摂動の交叉モーダル伝達性は研究されていない。
本稿では,ホワイトボックス画像モデル上で発生する逆摂動を利用して,ブラックボックスビデオモデルに対して,異なるモダリティにまたがる逆摂動の伝達可能性について検討する。
具体的には,画像と映像フレーム間の低レベル特徴空間が類似していることに着目し,画像対ビデオ攻撃(image to video (i2v) attack)という,単純かつ効果的なクロスモーダル攻撃手法を提案する。
I2Vは、事前訓練された画像モデルの特徴と良質な例とのコサイン類似性を最小化し、生成した逆フレームを組み合わせて、ビデオ認識モデルに対するブラックボックス攻撃を行う。
広範な実験により、i2vは様々なブラックボックスビデオ認識モデルにおいて高い攻撃成功率を達成できることが示されている。
Kinetics-400とUCF-101では、I2Vはそれぞれ77.88%と65.68%の平均攻撃成功率を達成しており、これは対向攻撃の可能性に光を当てている。
関連論文リスト
- Inter-frame Accelerate Attack against Video Interpolation Models [73.28751441626754]
我々は,対戦型攻撃をVIFモデルに適用し,対戦型モデルに対して非常に脆弱であることを示す。
本稿では,フレーム間加速攻撃(IAA)と呼ばれる新しい攻撃手法を提案する。
本手法は従来の手法と同等の攻撃性能を達成しつつ,攻撃効率を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-05-11T03:08:48Z) - Rethinking Model Ensemble in Transfer-based Adversarial Attacks [46.82830479910875]
転送可能性を改善する効果的な戦略は、モデルのアンサンブルを攻撃することである。
これまでの作業は、単に異なるモデルの出力を平均化するだけであった。
我々は、より移動可能な敵の例を生成するために、CWA(Common Weakness Attack)を提案する。
論文 参考訳(メタデータ) (2023-03-16T06:37:16Z) - Boosting Adversarial Transferability using Dynamic Cues [15.194437322391558]
タスク固有のプロンプトを通じて,同じソースモデル内に空間的(イメージ)および時間的(ビデオ)キューを導入する。
我々の攻撃結果は、攻撃者が特別なアーキテクチャを必要としないことを示している。
画像モデルは、変化する環境でブラックボックスモデルを騙すために敵攻撃を最適化する効果的な代理である。
論文 参考訳(メタデータ) (2023-02-23T18:59:56Z) - Frequency Domain Model Augmentation for Adversarial Attack [91.36850162147678]
ブラックボックス攻撃の場合、代用モデルと被害者モデルの間のギャップは通常大きい。
そこで本研究では,通常の訓練モデルと防衛モデルの両方に対して,より伝達可能な対角線モデルを構築するための新しいスペクトルシミュレーション攻撃を提案する。
論文 参考訳(メタデータ) (2022-07-12T08:26:21Z) - Boosting the Transferability of Video Adversarial Examples via Temporal
Translation [82.0745476838865]
敵の例は転送可能であり、現実世界のアプリケーションにおけるブラックボックス攻撃に対して実現可能である。
本稿では,一組の時間的翻訳ビデオクリップ上での対向的摂動を最適化する時間的翻訳攻撃手法を提案する。
Kinetics-400 データセットと UCF-101 データセットを用いた実験により,本手法がビデオ対向例の転送可能性を大幅に向上することを示した。
論文 参考訳(メタデータ) (2021-10-18T07:52:17Z) - Meta Gradient Adversarial Attack [64.5070788261061]
本稿では,MGAA(Metaversa Gradient Adrial Attack)と呼ばれる新しいアーキテクチャを提案する。
具体的には、モデル動物園から複数のモデルをランダムにサンプリングし、異なるタスクを構成するとともに、各タスクにおけるホワイトボックス攻撃とブラックボックス攻撃を反復的にシミュレートする。
ブラックボックス攻撃における勾配方向とブラックボックス攻撃の差を狭めることにより、ブラックボックス設定における逆例の転送性を向上させることができる。
論文 参考訳(メタデータ) (2021-08-09T17:44:19Z) - Two Sides of the Same Coin: White-box and Black-box Attacks for Transfer
Learning [60.784641458579124]
ホワイトボックスFGSM攻撃によるモデルロバスト性を効果的に向上することを示す。
また,移動学習モデルに対するブラックボックス攻撃手法を提案する。
ホワイトボックス攻撃とブラックボックス攻撃の双方の効果を系統的に評価するために,ソースモデルからターゲットモデルへの変換可能性の評価手法を提案する。
論文 参考訳(メタデータ) (2020-08-25T15:04:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。