論文の概要: Boosting the Transferability of Video Adversarial Examples via Temporal
Translation
- arxiv url: http://arxiv.org/abs/2110.09075v1
- Date: Mon, 18 Oct 2021 07:52:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-20 04:35:15.955563
- Title: Boosting the Transferability of Video Adversarial Examples via Temporal
Translation
- Title(参考訳): テンポラル翻訳による映像逆転例の転送性向上
- Authors: Zhipeng Wei, Jingjing Chen, Zuxuan Wu, Yu-Gang Jiang
- Abstract要約: 敵の例は転送可能であり、現実世界のアプリケーションにおけるブラックボックス攻撃に対して実現可能である。
本稿では,一組の時間的翻訳ビデオクリップ上での対向的摂動を最適化する時間的翻訳攻撃手法を提案する。
Kinetics-400 データセットと UCF-101 データセットを用いた実験により,本手法がビデオ対向例の転送可能性を大幅に向上することを示した。
- 参考スコア(独自算出の注目度): 82.0745476838865
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although deep-learning based video recognition models have achieved
remarkable success, they are vulnerable to adversarial examples that are
generated by adding human-imperceptible perturbations on clean video samples.
As indicated in recent studies, adversarial examples are transferable, which
makes it feasible for black-box attacks in real-world applications.
Nevertheless, most existing adversarial attack methods have poor
transferability when attacking other video models and transfer-based attacks on
video models are still unexplored. To this end, we propose to boost the
transferability of video adversarial examples for black-box attacks on video
recognition models. Through extensive analysis, we discover that different
video recognition models rely on different discriminative temporal patterns,
leading to the poor transferability of video adversarial examples. This
motivates us to introduce a temporal translation attack method, which optimizes
the adversarial perturbations over a set of temporal translated video clips. By
generating adversarial examples over translated videos, the resulting
adversarial examples are less sensitive to temporal patterns existed in the
white-box model being attacked and thus can be better transferred. Extensive
experiments on the Kinetics-400 dataset and the UCF-101 dataset demonstrate
that our method can significantly boost the transferability of video
adversarial examples. For transfer-based attack against video recognition
models, it achieves a 61.56% average attack success rate on the Kinetics-400
and 48.60% on the UCF-101.
- Abstract(参考訳): ディープラーニングに基づくビデオ認識モデルは目覚ましい成功を収めているが、クリーンなビデオサンプルに人間の知覚できない摂動を加えることで生じる敵の例には弱い。
最近の研究で示されているように、敵の例は転送可能であり、現実世界のアプリケーションではブラックボックス攻撃が可能である。
しかしながら、既存のほとんどの敵攻撃手法は、他のビデオモデルを攻撃する場合の転送性が劣る。
そこで本研究では,ビデオ認識モデルに対するブラックボックス攻撃に対するビデオ逆転例の転送可能性を高めることを提案する。
広汎な分析により、異なる映像認識モデルは異なる識別的時間パターンに依存しており、ビデオ対向例の移動性が低いことが判明した。
これにより,時間的変換ビデオクリップの対向的摂動を最適化する時間的翻訳攻撃手法を導入することができる。
翻訳ビデオ上の敵の例を生成することで、結果の敵の例は攻撃対象のホワイトボックスモデルに存在する時間パターンに敏感ではなく、よりよい転送が可能となる。
Kinetics-400 データセットと UCF-101 データセットの大規模な実験により,本手法がビデオ対向例の転送可能性を大幅に向上することを示した。
動画認識モデルに対する転送ベースの攻撃では、キネティクス400で平均61.56%、UCF-101で平均48.60%となる。
関連論文リスト
- Efficient Generation of Targeted and Transferable Adversarial Examples for Vision-Language Models Via Diffusion Models [17.958154849014576]
大規模視覚言語モデル(VLM)のロバスト性を評価するために、敵対的攻撃を用いることができる。
従来のトランスファーベースの敵攻撃は、高いイテレーション数と複雑なメソッド構造により、高いコストを発生させる。
本稿では, 拡散モデルを用いて, 自然, 制約のない, 対象とする対向的な例を生成するAdvDiffVLMを提案する。
論文 参考訳(メタデータ) (2024-04-16T07:19:52Z) - SA-Attack: Improving Adversarial Transferability of Vision-Language
Pre-training Models via Self-Augmentation [56.622250514119294]
ホワイトボックスの敵攻撃とは対照的に、転送攻撃は現実世界のシナリオをより反映している。
本稿では,SA-Attackと呼ばれる自己拡張型転送攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T09:08:50Z) - Diffusion Models for Imperceptible and Transferable Adversarial Attack [23.991194050494396]
本稿では,拡散モデルの生成的および識別的パワーを両立させることにより,新たな非受容的かつ伝達可能な攻撃を提案する。
提案手法であるDiffAttackは,対向攻撃場に拡散モデルを導入する最初の方法である。
論文 参考訳(メタデータ) (2023-05-14T16:02:36Z) - Cross-Modal Transferable Adversarial Attacks from Images to Videos [82.0745476838865]
近年の研究では、一方のホワイトボックスモデルで手作りされた敵の例は、他のブラックボックスモデルを攻撃するために使用できることが示されている。
本稿では,イメージ・トゥ・ビデオ(I2V)攻撃と呼ばれる,シンプルだが効果的なクロスモーダル・アタック手法を提案する。
I2Vは、事前訓練された画像モデルの特徴と良質な例とのコサイン類似性を最小化して、対向フレームを生成する。
論文 参考訳(メタデータ) (2021-12-10T08:19:03Z) - Direction-Aggregated Attack for Transferable Adversarial Examples [10.208465711975242]
深層ニューラルネットワークは、入力に知覚不可能な変化を課すことによって作られる敵の例に弱い。
逆例は、モデルとそのパラメータが利用可能なホワイトボックス設定で最も成功した。
我々は,移動可能な攻撃事例を提供する方向集約型攻撃を提案する。
論文 参考訳(メタデータ) (2021-04-19T09:54:56Z) - Two Sides of the Same Coin: White-box and Black-box Attacks for Transfer
Learning [60.784641458579124]
ホワイトボックスFGSM攻撃によるモデルロバスト性を効果的に向上することを示す。
また,移動学習モデルに対するブラックボックス攻撃手法を提案する。
ホワイトボックス攻撃とブラックボックス攻撃の双方の効果を系統的に評価するために,ソースモデルからターゲットモデルへの変換可能性の評価手法を提案する。
論文 参考訳(メタデータ) (2020-08-25T15:04:32Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z) - Over-the-Air Adversarial Flickering Attacks against Video Recognition
Networks [54.82488484053263]
ビデオ分類のためのディープニューラルネットワークは、敵の操作を受けることができる。
本稿では,フリックング時間摂動を導入することで,ビデオ分類器を騙す操作手法を提案する。
攻撃はいくつかの標的モデルに実装され、攻撃の伝達性が実証された。
論文 参考訳(メタデータ) (2020-02-12T17:58:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。