論文の概要: Adversarial Attacks with Time-Scale Representations
- arxiv url: http://arxiv.org/abs/2107.12473v1
- Date: Mon, 26 Jul 2021 20:58:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-29 03:56:01.006883
- Title: Adversarial Attacks with Time-Scale Representations
- Title(参考訳): 時間的表現による敵攻撃
- Authors: Alberto Santamaria-Pang, Jianwei Qiu, Aritra Chowdhury, James
Kubricht, Peter Tu, Iyer Naresh, Nurali Virani
- Abstract要約: リアルタイム・ブラックボックス・ユニバーサル・アタックのための新しいフレームワークを提案する。
我々の仮説では、ウェーブレット空間で発生する摂動は、時間領域で実行される摂動よりも、初期の畳み込み層を効果的に破壊する。
その結果,ウェーブレットによる摂動は時間ベースの攻撃よりも常に優れていた。
- 参考スコア(独自算出の注目度): 3.3865605512957457
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel framework for real-time black-box universal attacks which
disrupts activations of early convolutional layers in deep learning models. Our
hypothesis is that perturbations produced in the wavelet space disrupt early
convolutional layers more effectively than perturbations performed in the time
domain. The main challenge in adversarial attacks is to preserve low frequency
image content while minimally changing the most meaningful high frequency
content. To address this, we formulate an optimization problem using time-scale
(wavelet) representations as a dual space in three steps. First, we project
original images into orthonormal sub-spaces for low and high scales via wavelet
coefficients. Second, we perturb wavelet coefficients for high scale projection
using a generator network. Third, we generate new adversarial images by
projecting back the original coefficients from the low scale and the perturbed
coefficients from the high scale sub-space. We provide a theoretical framework
that guarantees a dual mapping from time and time-scale domain representations.
We compare our results with state-of-the-art black-box attacks from
generative-based and gradient-based models. We also verify efficacy against
multiple defense methods such as JPEG compression, Guided Denoiser and
Comdefend. Our results show that wavelet-based perturbations consistently
outperform time-based attacks thus providing new insights into vulnerabilities
of deep learning models and could potentially lead to robust architectures or
new defense and attack mechanisms by leveraging time-scale representations.
- Abstract(参考訳): 本稿では,ディープラーニングモデルにおける初期畳み込み層の活性化を阻害する,リアルタイムブラックボックスユニバーサルアタックのための新しいフレームワークを提案する。
我々の仮説では、ウェーブレット空間で発生する摂動は、時間領域で行われる摂動よりも初期の畳み込み層をディスラプトする。
逆境攻撃の主な課題は、低周波画像コンテンツを保存しつつ、最も有意義な高周波コンテンツを最小限に変更することである。
これに対処するために、時間スケール(ウェーブレット)表現を3ステップの双対空間として用いる最適化問題を定式化する。
まず、オリジナル画像をウェーブレット係数を介して低・高スケールの正規直交部分空間に投影する。
第2に、ジェネレータネットワークを用いた高速投影のためのウェーブレット係数を摂動する。
第3に,低スケールから元の係数,高スケール部分空間から摂動係数を投影することにより,新たな逆画像を生成する。
時間と時間スケールのドメイン表現から双対マッピングを保証する理論的フレームワークを提供する。
生成モデルと勾配モデルによる最先端のブラックボックス攻撃との比較を行った。
また,jpeg圧縮,ガイドデノイザー,comdefendなどの複数の防御手法に対する有効性を検証する。
以上の結果から,ウェーブレットによる摂動は時間に基づく攻撃よりも優れており,ディープラーニングモデルの脆弱性に対する新たな洞察を与え,時間スケールの表現を活用することで,堅牢なアーキテクチャや新たな防御・攻撃機構につながる可能性が示唆された。
関連論文リスト
- Low-Frequency Black-Box Backdoor Attack via Evolutionary Algorithm [12.711880028935315]
畳み込みニューラルネットワーク(CNN)はコンピュータビジョンタスクで成功したが、バックドア攻撃に弱い。
周波数スペクトルの低周波成分を最小限に摂動させる強力な低周波ブラックボックスバックドアアタック(LFBA)を提案する。
実世界のデータセットの実験は、画像処理操作と最先端のバックドア防御に対するLFBAの有効性と堅牢性を検証する。
論文 参考訳(メタデータ) (2024-02-23T23:36:36Z) - LFAA: Crafting Transferable Targeted Adversarial Examples with
Low-Frequency Perturbations [25.929492841042666]
本稿では,トランスファー可能な対象対向例を生成するための新しい手法を提案する。
画像の高周波成分の摂動にディープニューラルネットワークの脆弱性を利用する。
提案手法は最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-10-31T04:54:55Z) - Both Spatial and Frequency Cues Contribute to High-Fidelity Image
Inpainting [9.080472817672263]
深部生成的アプローチは、近年、画像の塗布において大きな成功を収めている。
ほとんどの生成的塗布ネットワークは、過度に滑らかな結果か、アーティファクトのエイリアスに悩まされている。
本研究では、空間領域と周波数領域の両方において、リッチな意味情報を活用することで、周波数空間補間ネットワーク(FSCN)を提案する。
論文 参考訳(メタデータ) (2023-07-15T01:52:06Z) - Frequency Domain Adversarial Training for Robust Volumetric Medical
Segmentation [111.61781272232646]
医療などの重要な応用において、ディープラーニングモデルの堅牢性を確保することが不可欠である。
本稿では,ボリューム医療画像分割モデルに対する3次元周波数領域対逆攻撃について述べる。
論文 参考訳(メタデータ) (2023-07-14T10:50:43Z) - Frequency Domain Model Augmentation for Adversarial Attack [91.36850162147678]
ブラックボックス攻撃の場合、代用モデルと被害者モデルの間のギャップは通常大きい。
そこで本研究では,通常の訓練モデルと防衛モデルの両方に対して,より伝達可能な対角線モデルを構築するための新しいスペクトルシミュレーション攻撃を提案する。
論文 参考訳(メタデータ) (2022-07-12T08:26:21Z) - Practical No-box Adversarial Attacks with Training-free Hybrid Image
Transformation [123.33816363589506]
ノンボックス脅威モデルの下では, テキストbftraining-free adversarial perturbationの存在を示す。
低レベルの特徴を持つ高周波成分 (HFC) ドメインは, 主に周波数成分の操作によって画像を攻撃する。
我々の手法は、主流の転送ベースのブラックボックス攻撃と競合する。
論文 参考訳(メタデータ) (2022-03-09T09:51:00Z) - WaveFill: A Wavelet-based Generation Network for Image Inpainting [57.012173791320855]
WaveFillはウェーブレットベースの塗装ネットワークで、画像を複数の周波数帯域に分解する。
WaveFillは、空間情報を自然に保存する離散ウェーブレット変換(DWT)を用いて画像を分解する。
低周波帯にL1再構成損失を、高周波帯に敵対損失を施し、それによって周波数間紛争を効果的に軽減する。
論文 参考訳(メタデータ) (2021-07-23T04:44:40Z) - Accurate and Robust Deep Learning Framework for Solving Wave-Based
Inverse Problems in the Super-Resolution Regime [1.933681537640272]
本稿では,すべての長さスケールにわたる逆波散乱問題を包括的に解決するエンドツーエンドのディープラーニングフレームワークを提案する。
本フレームワークは,新たに導入された広帯域バタフライネットワークと,トレーニング中に動的にノイズを注入する簡単なトレーニング手順から構成される。
論文 参考訳(メタデータ) (2021-06-02T13:30:28Z) - AdvHaze: Adversarial Haze Attack [19.744435173861785]
現実世界の風景に共通する現象であるヘイズに基づく新たな敵対攻撃法を紹介します。
本手法は, 大気散乱モデルに基づく画像に, 高い現実性で, 潜在的に逆転するハゼを合成することができる。
提案手法は,高い成功率を達成し,ベースラインと異なる分類モデル間での転送性が向上することを示す。
論文 参考訳(メタデータ) (2021-04-28T09:52:25Z) - WaveTransform: Crafting Adversarial Examples via Input Decomposition [69.01794414018603]
本稿では,低周波サブバンドと高周波サブバンドに対応する逆雑音を生成するWaveTransformを紹介する。
実験により,提案攻撃は防衛アルゴリズムに対して有効であり,CNN間での転送も可能であることが示された。
論文 参考訳(メタデータ) (2020-10-29T17:16:59Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。