論文の概要: Sparse Adversarial Video Attacks with Spatial Transformations
- arxiv url: http://arxiv.org/abs/2111.05468v1
- Date: Wed, 10 Nov 2021 00:37:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-11 15:03:35.477871
- Title: Sparse Adversarial Video Attacks with Spatial Transformations
- Title(参考訳): 空間的変換を伴うスパース逆ビデオアタック
- Authors: Ronghui Mu, Wenjie Ruan, Leandro Soriano Marcolino, Qiang Ni
- Abstract要約: 本稿では,DeepSAVAと呼ばれるビデオに対する敵攻撃戦略を提案する。
我々のモデルは、統一最適化フレームワークによる加法摂動と空間変換の両方を含む。
DeepSAVAは、攻撃の成功率と敵の移動可能性の両方の観点から、最先端のパフォーマンスを保ちながら、人間の認識不能を維持するためのビデオに対して非常にスパースな攻撃を行う。
- 参考スコア(独自算出の注目度): 26.835631227839837
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, a significant amount of research efforts concentrated on
adversarial attacks on images, while adversarial video attacks have seldom been
explored. We propose an adversarial attack strategy on videos, called DeepSAVA.
Our model includes both additive perturbation and spatial transformation by a
unified optimisation framework, where the structural similarity index (SSIM)
measure is adopted to measure the adversarial distance. We design an effective
and novel optimisation scheme which alternatively utilizes Bayesian
optimisation to identify the most influential frame in a video and Stochastic
gradient descent (SGD) based optimisation to produce both additive and
spatial-transformed perturbations. Doing so enables DeepSAVA to perform a very
sparse attack on videos for maintaining human imperceptibility while still
achieving state-of-the-art performance in terms of both attack success rate and
adversarial transferability. Our intensive experiments on various types of deep
neural networks and video datasets confirm the superiority of DeepSAVA.
- Abstract(参考訳): 近年,画像に対する敵対的攻撃に多大な研究努力が集中している一方,敵対的ビデオ攻撃はめったに研究されていない。
本稿では,DeepSAVAと呼ばれるビデオに対する敵攻撃戦略を提案する。
本モデルでは, 対向距離を測定するために, 構造類似度指標(SSIM)を用いた統合最適化フレームワークによる加法摂動と空間変換の両方を含む。
本研究では,映像中の最も影響力のあるフレームの同定にベイズ最適化を利用する実効的で斬新な最適化手法を設計し,加法的および空間変換的な摂動を生成するために確率勾配降下(SGD)に基づく最適化を行う。
そうすることで、deepsavaは、攻撃成功率と敵対的転送可能性の両方の観点から最先端のパフォーマンスを保ちながら、人間のインセプティビリティを維持するために、ビデオに対して非常にスパースな攻撃を行うことができる。
さまざまな種類のディープニューラルネットワークとビデオデータセットに関する集中的な実験により、DeepSAVAの優位性が確認されました。
関連論文リスト
- Query-Efficient Video Adversarial Attack with Stylized Logo [17.268709979991996]
ディープニューラルネットワーク(DNN)に基づくビデオ分類システムは、敵の例に対して非常に脆弱である。
我々は Stylized Logo Attack (SLA) と呼ばれる新しいブラックボックスビデオアタックフレームワークを提案する。
SLAは3つのステップで実施される。最初のステップはロゴのスタイル参照セットを構築することであり、生成された例をより自然にするだけでなく、ターゲットとする攻撃でより多くのターゲットクラス機能を実行することができる。
論文 参考訳(メタデータ) (2024-08-22T03:19:09Z) - AICAttack: Adversarial Image Captioning Attack with Attention-Based Optimization [13.045125782574306]
本稿では,画像上の微妙な摂動によって画像キャプションモデルを攻撃する新たな攻撃戦略であるAICAttackを提案する。
ブラックボックス攻撃シナリオ内で動作するため、我々のアルゴリズムはターゲットモデルのアーキテクチャ、パラメータ、勾配情報へのアクセスを必要としない。
複数の犠牲者モデルに対するベンチマークデータセットの広範な実験を通じて,AICAttackの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-19T08:27:23Z) - Inter-frame Accelerate Attack against Video Interpolation Models [73.28751441626754]
我々は,対戦型攻撃をVIFモデルに適用し,対戦型モデルに対して非常に脆弱であることを示す。
本稿では,フレーム間加速攻撃(IAA)と呼ばれる新しい攻撃手法を提案する。
本手法は従来の手法と同等の攻撃性能を達成しつつ,攻撃効率を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-05-11T03:08:48Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - A Multi-objective Memetic Algorithm for Auto Adversarial Attack
Optimization Design [1.9100854225243937]
良く設計された敵防衛戦略は、敵の例に対するディープラーニングモデルの堅牢性を改善することができる。
防御モデルを考えると、計算負担が少なく、ロバストな精度の低い効率的な敵攻撃を更に活用する必要がある。
本稿では,防衛モデルに対する準最適攻撃の自動探索を実現する自動対向攻撃最適化設計のための多目的メメティックアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-15T03:03:05Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Adversarial example generation with AdaBelief Optimizer and Crop
Invariance [8.404340557720436]
敵攻撃は、安全クリティカルなアプリケーションにおいて堅牢なモデルを評価し、選択するための重要な方法である。
本稿では,AdaBelief Iterative Fast Gradient Method (ABI-FGM)とCrop-Invariant attack Method (CIM)を提案する。
我々の手法は、最先端の勾配に基づく攻撃法よりも成功率が高い。
論文 参考訳(メタデータ) (2021-02-07T06:00:36Z) - Robust Tracking against Adversarial Attacks [69.59717023941126]
まず,ビデオシーケンス上に敵の例を生成して,敵の攻撃に対するロバスト性を改善する。
提案手法を最先端のディープトラッキングアルゴリズムに適用する。
論文 参考訳(メタデータ) (2020-07-20T08:05:55Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。