論文の概要: On The Relationship Between Universal Adversarial Attacks And Sparse
Representations
- arxiv url: http://arxiv.org/abs/2311.08265v1
- Date: Tue, 14 Nov 2023 16:00:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-15 13:22:23.786940
- Title: On The Relationship Between Universal Adversarial Attacks And Sparse
Representations
- Title(参考訳): 普遍的敵意攻撃とスパース表現の関係について
- Authors: Dana Weitzner and Raja Giryes
- Abstract要約: 敵攻撃とスパース表現の関連性を示す。
ニューラルネットワークに対する一般的な攻撃は、入力画像のスパース表現に対する攻撃として表現することができる。
- 参考スコア(独自算出の注目度): 38.43938212884298
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The prominent success of neural networks, mainly in computer vision tasks, is
increasingly shadowed by their sensitivity to small, barely perceivable
adversarial perturbations in image input.
In this work, we aim at explaining this vulnerability through the framework
of sparsity.
We show the connection between adversarial attacks and sparse
representations, with a focus on explaining the universality and
transferability of adversarial examples in neural networks.
To this end, we show that sparse coding algorithms, and the neural
network-based learned iterative shrinkage thresholding algorithm (LISTA) among
them, suffer from this sensitivity, and that common attacks on neural networks
can be expressed as attacks on the sparse representation of the input image.
The phenomenon that we observe holds true also when the network is agnostic to
the sparse representation and dictionary, and thus can provide a possible
explanation for the universality and transferability of adversarial attacks.
The code is available at
https://github.com/danawr/adversarial_attacks_and_sparse_representations.
- Abstract(参考訳): ニューラルネットワークの顕著な成功は、主にコンピュータビジョンタスクにおいて、画像入力における小さな、ほとんど知覚できない敵の摂動に対する感受性によって、ますます影に隠れている。
本研究では,この脆弱性を説明することを目的としている。
本稿では,ニューラルネットワークにおける攻撃例の普遍性と伝達可能性を説明することに着目し,攻撃攻撃とスパース表現の関係を示す。
この結果から,スパース符号化アルゴリズムとニューラルネットワークに基づく学習反復収縮しきい値決定アルゴリズム(LISTA)は,この感度に悩まされており,ニューラルネットワークに対する共通攻撃は,入力画像のスパース表現に対する攻撃として表現できることを示した。
ネットワークがスパース表現や辞書に非依存である場合にも、我々が観測する現象は真実であり、敵攻撃の普遍性と転送可能性について説明できる。
コードはhttps://github.com/danawr/adversarial_attacks_and_sparse_representationsで入手できる。
関連論文リスト
- Quantum-Inspired Analysis of Neural Network Vulnerabilities: The Role of
Conjugate Variables in System Attacks [54.565579874913816]
ニューラルネットワークは、敵の攻撃として現れる小さな非ランダムな摂動に固有の脆弱性を示す。
この機構と量子物理学の不確実性原理の間に数学的に一致し、予想外の学際性に光を当てる。
論文 参考訳(メタデータ) (2024-02-16T02:11:27Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - SAIF: Sparse Adversarial and Imperceptible Attack Framework [7.025774823899217]
Sparse Adversarial and Interpretable Attack Framework (SAIF) と呼ばれる新しい攻撃手法を提案する。
具体的には、少数の画素で低次摂動を含む知覚不能な攻撃を設計し、これらのスパース攻撃を利用して分類器の脆弱性を明らかにする。
SAIFは、非常に受け入れ難い、解釈可能な敵の例を計算し、ImageNetデータセット上で最先端のスパース攻撃手法より優れている。
論文 参考訳(メタデータ) (2022-12-14T20:28:50Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - Adversarial Attacks on Spiking Convolutional Networks for Event-based
Vision [0.6999740786886537]
我々は、ホワイトボックスの敵対的攻撃アルゴリズムが、イベントベースの視覚データの離散的かつスパースな性質にどのように適応できるかを示す。
また、ニューロモルフィックハードウェア上でのこれらの摂動の有効性を初めて検証した。
論文 参考訳(メタデータ) (2021-10-06T17:20:05Z) - Controlled Caption Generation for Images Through Adversarial Attacks [85.66266989600572]
画像特徴抽出には畳み込みニューラルネットワーク(CNN)、キャプション生成にはリカレントニューラルネットワーク(RNN)が使用される。
特に、その後の再帰的ネットワークに供給される視覚エンコーダの隠蔽層に対する攻撃について検討する。
本稿では、CNNの内部表現を模倣したニューラルネットワークキャプションの逆例を作成するためのGANベースのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-07-07T07:22:41Z) - Attack to Fool and Explain Deep Networks [59.97135687719244]
対人摂動における人為的意味のパターンの証拠を提供することによって、私たちは逆転する。
我々の主な貢献は、その後視覚モデルを理解するためのツールに変換される、新しい実用的対人攻撃である。
論文 参考訳(メタデータ) (2021-06-20T03:07:36Z) - Exploring Adversarial Examples via Invertible Neural Networks [10.320129984220857]
逆の例(AEs)は、原画像にわずかな摂動を導入することによって、ディープニューラルネットワーク(DNN)分類器を誤解させることのできるイメージである。
このセキュリティ脆弱性は、ニューラルネットワークに依存するシステムに現実世界の脅威をもたらす可能性があるため、近年、大きな研究につながった。
本稿では,リプシッツ連続写像関数を用いたインバータブルニューラルモデル(invertible neural model)の入力から出力への新たな理解方法を提案する。
論文 参考訳(メタデータ) (2020-12-24T05:17:21Z) - Relationship between manifold smoothness and adversarial vulnerability
in deep learning with local errors [2.7834038784275403]
ニューラルネットワークにおける敵の脆弱性の起源について検討する。
本研究は,隠れ表現の固有スペクトルの比較的高速なパワーロー崩壊を必要とすることを明らかにする。
論文 参考訳(メタデータ) (2020-07-04T08:47:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。