論文の概要: Adversarial Attacks on Black Box Video Classifiers: Leveraging the Power
of Geometric Transformations
- arxiv url: http://arxiv.org/abs/2110.01823v1
- Date: Tue, 5 Oct 2021 05:05:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-06 23:24:25.491063
- Title: Adversarial Attacks on Black Box Video Classifiers: Leveraging the Power
of Geometric Transformations
- Title(参考訳): ブラックボックスビデオ分類器の逆攻撃:幾何変換のパワーを活用する
- Authors: Shasha Li, Abhishek Aich, Shitong Zhu, M. Salman Asif, Chengyu Song,
Amit K. Roy-Chowdhury, Srikanth Krishnamurthy
- Abstract要約: ビデオ分類モデルに対するブラックボックスの敵攻撃は、ほとんど調査されていない。
本研究では,探索空間の時間構造をパラメータ化することにより,そのような効果的な勾配を探索できることを実証する。
我々のアルゴリズムは本質的に、驚くほど少ないクエリで摂動を成功させる。
- 参考スコア(独自算出の注目度): 49.06194223213629
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When compared to the image classification models, black-box adversarial
attacks against video classification models have been largely understudied.
This could be possible because, with video, the temporal dimension poses
significant additional challenges in gradient estimation. Query-efficient
black-box attacks rely on effectively estimated gradients towards maximizing
the probability of misclassifying the target video. In this work, we
demonstrate that such effective gradients can be searched for by parameterizing
the temporal structure of the search space with geometric transformations.
Specifically, we design a novel iterative algorithm Geometric TRAnsformed
Perturbations (GEO-TRAP), for attacking video classification models. GEO-TRAP
employs standard geometric transformation operations to reduce the search space
for effective gradients into searching for a small group of parameters that
define these operations. This group of parameters describes the geometric
progression of gradients, resulting in a reduced and structured search space.
Our algorithm inherently leads to successful perturbations with surprisingly
few queries. For example, adversarial examples generated from GEO-TRAP have
better attack success rates with ~73.55% fewer queries compared to the
state-of-the-art method for video adversarial attacks on the widely used Jester
dataset. Overall, our algorithm exposes vulnerabilities of diverse video
classification models and achieves new state-of-the-art results under black-box
settings on two large datasets.
- Abstract(参考訳): 画像分類モデルと比較すると、ビデオ分類モデルに対するブラックボックスの敵対的攻撃は概ね未検討である。
ビデオでは、時間次元が勾配推定に重大な課題をもたらすため、これは可能かもしれない。
クエリ効率の高いブラックボックス攻撃は、ターゲットビデオの誤分類の確率を最大化するために、効果的に推定された勾配に依存する。
本研究では,探索空間の時間構造を幾何変換でパラメータ化することで,そのような効果的な勾配を探索できることを実証する。
具体的には、ビデオ分類モデルを攻撃するための新しい反復アルゴリズムGeometric TRAnsformed Perturbations (GEO-TRAP) を設計する。
GEO-TRAPは標準的な幾何学変換演算を用いて、効率的な勾配の探索空間を減らし、これらの演算を定義するパラメータの小さなグループを探索する。
このパラメータ群は勾配の幾何学的進行を記述し、その結果、小さく構造化された探索空間となる。
我々のアルゴリズムは本質的に驚くほど少ないクエリで摂動を成功させる。
例えば、GEO-TRAPから生成された敵の例は、広く使われているJesterデータセットに対するビデオ敵攻撃の最先端手法と比較して、約73.55%のクエリで攻撃の成功率を改善する。
全体として,本アルゴリズムは多様なビデオ分類モデルの脆弱性を露呈し,2つの大規模データセットのブラックボックス設定下で新たな最先端結果を得る。
関連論文リスト
- GE-AdvGAN: Improving the transferability of adversarial samples by
gradient editing-based adversarial generative model [69.71629949747884]
GAN(Generative Adversarial Networks)のような逆生成モデルは、様々な種類のデータを生成するために広く応用されている。
本研究では, GE-AdvGAN という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-11T16:43:16Z) - Rethinking PGD Attack: Is Sign Function Necessary? [131.6894310945647]
本稿では,このような手話に基づく更新アルゴリズムが段階的攻撃性能にどのように影響するかを理論的に分析する。
本稿では,手話の使用を排除したRGDアルゴリズムを提案する。
提案したRGDアルゴリズムの有効性は実験で広く実証されている。
論文 参考訳(メタデータ) (2023-12-03T02:26:58Z) - Gradient Aligned Attacks via a Few Queries [18.880398046794138]
ブラックボックスクエリアタックは、少数のクエリのみを許可する新しいシナリオにおいて、パフォーマンスが低いことを示している。
本研究では, 被害モデルに対する攻撃性能を改善するために, 勾配アライメント・アライメント・アライメント・アタック(GAA)を提案する。
提案した勾配整列攻撃と損失は,ブラックボックスクエリアタックの攻撃性能とクエリ効率を大幅に改善したことを示す。
論文 参考訳(メタデータ) (2022-05-19T12:32:20Z) - Geometrically Adaptive Dictionary Attack on Face Recognition [23.712389625037442]
顔認証に対するクエリ効率の良いブラックボックス攻撃のための戦略を提案する。
中心となるアイデアは、UVテクスチャマップに逆方向の摂動を作り、それを画像の顔に投影することです。
LFWデータセットとCPLFWデータセットの実験において、圧倒的な性能改善を示す。
論文 参考訳(メタデータ) (2021-11-08T10:26:28Z) - Meta Gradient Adversarial Attack [64.5070788261061]
本稿では,MGAA(Metaversa Gradient Adrial Attack)と呼ばれる新しいアーキテクチャを提案する。
具体的には、モデル動物園から複数のモデルをランダムにサンプリングし、異なるタスクを構成するとともに、各タスクにおけるホワイトボックス攻撃とブラックボックス攻撃を反復的にシミュレートする。
ブラックボックス攻撃における勾配方向とブラックボックス攻撃の差を狭めることにより、ブラックボックス設定における逆例の転送性を向上させることができる。
論文 参考訳(メタデータ) (2021-08-09T17:44:19Z) - Adversarial examples attack based on random warm restart mechanism and
improved Nesterov momentum [0.0]
一部の研究は、ディープラーニングモデルが敵の例を攻撃し、誤った判断に弱いことを指摘している。
ランダムなウォームリスタート機構とネステロフ運動量改善に基づくRWR-NM-PGD攻撃アルゴリズムを提案する。
攻撃成功率は平均46.3077%であり,I-FGSMより27.19%,PGDより9.27%高い。
論文 参考訳(メタデータ) (2021-05-10T07:24:25Z) - Boosting Gradient for White-Box Adversarial Attacks [60.422511092730026]
そこで本研究では,ADV-ReLUと呼ばれる,勾配に基づくホワイトボックス攻撃アルゴリズムの性能向上を目的とした,汎用的な逆例生成手法を提案する。
提案手法では,損失関数とネットワーク入力の勾配を算出し,その値をスコアにマップし,その一部を選択して誤導勾配を更新する。
論文 参考訳(メタデータ) (2020-10-21T02:13:26Z) - Gaussian MRF Covariance Modeling for Efficient Black-Box Adversarial
Attacks [86.88061841975482]
我々は,ゼロオーダーのオラクルにのみアクセス可能なブラックボックス設定において,逆例を生成する問題について検討する。
我々はこの設定を用いて、FGSM(Fast Gradient Sign Method)のブラックボックス版と同様に、高速な1ステップの敵攻撃を見つける。
提案手法はクエリを少なくし,現在の技術よりも攻撃成功率が高いことを示す。
論文 参考訳(メタデータ) (2020-10-08T18:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。