論文の概要: Recurrent Attention Model with Log-Polar Mapping is Robust against
Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2002.05388v1
- Date: Thu, 13 Feb 2020 08:40:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 13:20:34.681582
- Title: Recurrent Attention Model with Log-Polar Mapping is Robust against
Adversarial Attacks
- Title(参考訳): 対数極マッピングを用いたリカレントアテンションモデル : 対向攻撃に対するロバスト性
- Authors: Taro Kiritani, Koji Ono
- Abstract要約: 我々は,注目によって制御される対数極性視野を持つデータを連続的に収集する,新しいニューラルネットワークモデルを開発した。
本研究では,SPSA攻撃とPGD攻撃に対する防御として,この設計の有効性を実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional neural networks are vulnerable to small $\ell^p$ adversarial
attacks, while the human visual system is not. Inspired by neural networks in
the eye and the brain, we developed a novel artificial neural network model
that recurrently collects data with a log-polar field of view that is
controlled by attention. We demonstrate the effectiveness of this design as a
defense against SPSA and PGD adversarial attacks. It also has beneficial
properties observed in the animal visual system, such as reflex-like pathways
for low-latency inference, fixed amount of computation independent of image
size, and rotation and scale invariance. The code for experiments is available
at https://gitlab.com/exwzd-public/kiritani_ono_2020.
- Abstract(参考訳): 畳み込みニューラルネットワークは小さな$\ell^p$攻撃に弱いが、人間の視覚システムはそうではない。
目と脳のニューラルネットワークに触発された我々は、注意によって制御される対数極性視野でデータを反復的に収集する新しい人工ニューラルネットワークモデルを開発した。
本設計は,spsaおよびpgd攻撃に対する防御としての有効性を示す。
また、低遅延推論のための反射様経路、画像サイズに依存しない一定の計算量、回転とスケールの不変性など、動物の視覚系で観察される有益な性質を持つ。
実験のコードはhttps://gitlab.com/exwzd-public/kiritani_ono_2020で入手できる。
関連論文リスト
- Finite Gaussian Neurons: Defending against adversarial attacks by making
neural networks say "I don't know" [0.0]
人工ニューラルネットワークのための新しいニューロンアーキテクチャであるFinite Gaussian Neuron (FGN)を紹介する。
私の仕事は、 - 既存のモデルをFGNアーキテクチャに簡単に変換すること、 - 既存のモデルの振る舞いを実際のデータに保存すること、および、敵対的攻撃に対する抵抗を提供することである。
論文 参考訳(メタデータ) (2023-06-13T14:17:25Z) - Privacy-Preserved Neural Graph Similarity Learning [99.78599103903777]
本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
論文 参考訳(メタデータ) (2022-10-21T04:38:25Z) - A New Kind of Adversarial Example [47.64219291655723]
モデルが元の決定を維持しているようなイメージに十分な摂動が加えられる一方、人間は決定を強制すれば間違いを犯す可能性が高い。
提案した攻撃はNKEと呼ばれ、本質的にはばかげた画像に似ているが、進化アルゴリズムの代わりに勾配降下を用いるため、より効率的である。
論文 参考訳(メタデータ) (2022-08-04T03:45:44Z) - CARLA-GeAR: a Dataset Generator for a Systematic Evaluation of
Adversarial Robustness of Vision Models [61.68061613161187]
本稿では,合成データセットの自動生成ツールであるCARLA-GeARについて述べる。
このツールは、Python APIを使用して、CARLAシミュレータ上に構築されており、自律運転のコンテキストにおいて、いくつかのビジョンタスク用のデータセットを生成することができる。
本稿では,CARLA-GeARで生成されたデータセットが,現実世界の敵防衛のベンチマークとして今後どのように利用されるかを示す。
論文 参考訳(メタデータ) (2022-06-09T09:17:38Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - PiDAn: A Coherence Optimization Approach for Backdoor Attack Detection
and Mitigation in Deep Neural Networks [22.900501880865658]
バックドア攻撃はディープニューラルネットワーク(DNN)に新たな脅威をもたらす
汚染されたデータを浄化するコヒーレンス最適化に基づくアルゴリズムであるPiDAnを提案する。
当社のPiDAnアルゴリズムは90%以上の感染クラスを検出でき、95%の有毒サンプルを識別できる。
論文 参考訳(メタデータ) (2022-03-17T12:37:21Z) - Efficient and Robust Classification for Sparse Attacks [34.48667992227529]
我々は、画像認識、自然言語処理、マルウェア検出の領域において効果的な攻撃として示されてきた$ell$-normで束縛された摂動を考える。
我々は,「トランケーション」と「アドリアル・トレーニング」を組み合わせた新しい防衛手法を提案する。
得られた洞察に触発され、これらのコンポーネントをニューラルネットワーク分類器に拡張する。
論文 参考訳(メタデータ) (2022-01-23T21:18:17Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Deep neural network loses attention to adversarial images [11.650381752104296]
敵アルゴリズムは様々なタスクにおいてニューラルネットワークに対して有効であることが示されている。
Pixelアタックの場合、乱れたピクセルがネットワークの注意を自分自身に呼び出すか、それらから注意を逸らすかを示す。
また,どちらの攻撃もサリエンシマップとアクティベーションマップに異なる影響を及ぼすことを示した。
論文 参考訳(メタデータ) (2021-06-10T11:06:17Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - A Neuro-Inspired Autoencoding Defense Against Adversarial Perturbations [11.334887948796611]
ディープニューラルネットワーク(DNN)は敵の攻撃に対して脆弱である。
現在の最も効果的な防御策は、敵に摂動された例を使ってネットワークを訓練することである。
本稿では,神経に誘発される防御機構について検討する。
論文 参考訳(メタデータ) (2020-11-21T21:03:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。