論文の概要: NIP: Neuron-level Inverse Perturbation Against Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2112.13060v1
- Date: Fri, 24 Dec 2021 13:37:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-28 14:47:03.465778
- Title: NIP: Neuron-level Inverse Perturbation Against Adversarial Attacks
- Title(参考訳): NIP: 対人攻撃に対するニューロンレベルの逆摂動
- Authors: Ruoxi Chen, Haibo Jin, Jinyin Chen, Haibin Zheng, Yue Yu and Shouling
Ji
- Abstract要約: 本研究は,攻撃前後のニューロン行動のモデルから防御法を考察する。
そこで本研究では,神経レベル逆摂動法(NIP)を提案する。
- 参考スコア(独自算出の注目度): 22.668518687143244
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although deep learning models have achieved unprecedented success, their
vulnerabilities towards adversarial attacks have attracted increasing
attention, especially when deployed in security-critical domains. To address
the challenge, numerous defense strategies, including reactive and proactive
ones, have been proposed for robustness improvement. From the perspective of
image feature space, some of them cannot reach satisfying results due to the
shift of features. Besides, features learned by models are not directly related
to classification results. Different from them, We consider defense method
essentially from model inside and investigated the neuron behaviors before and
after attacks. We observed that attacks mislead the model by dramatically
changing the neurons that contribute most and least to the correct label.
Motivated by it, we introduce the concept of neuron influence and further
divide neurons into front, middle and tail part. Based on it, we propose
neuron-level inverse perturbation(NIP), the first neuron-level reactive defense
method against adversarial attacks. By strengthening front neurons and
weakening those in the tail part, NIP can eliminate nearly all adversarial
perturbations while still maintaining high benign accuracy. Besides, it can
cope with different sizes of perturbations via adaptivity, especially larger
ones. Comprehensive experiments conducted on three datasets and six models show
that NIP outperforms the state-of-the-art baselines against eleven adversarial
attacks. We further provide interpretable proofs via neuron activation and
visualization for better understanding.
- Abstract(参考訳): ディープラーニングモデルは前例のない成功を収めたものの、敵攻撃に対する脆弱性は、特にセキュリティクリティカルなドメインにデプロイする場合、注目を集めている。
この課題に対処するために、反応性と積極的な戦略を含む多くの防衛戦略が提案されている。
画像特徴空間の観点からは、特徴の変化により満足な結果に到達できないものもある。
さらに、モデルによって学習された特徴は、分類結果に直接関連しない。
それらと異なり、防御法は基本的に内部モデルと異なり、攻撃前後のニューロンの挙動を調査する。
我々は、攻撃が正しいラベルに最も寄与するニューロンを劇的に変化させることでモデルに誤解をもたらすことを観察した。
そこで我々は、ニューロンの影響の概念を導入し、ニューロンを前部、中部、尾部に分割する。
そこで本研究では,神経レベル逆摂動法(NIP)を提案する。
前方のニューロンを強化し、尾部のニューロンを弱めることで、NIPは高い良性を維持しながらほぼ全ての敵の摂動を排除できる。
さらに、適応性(特に大きいもの)による摂動の大きさの違いにも対処できる。
3つのデータセットと6つのモデルで包括的な実験を行った結果、nipは11の敵の攻撃に対して最先端のベースラインよりも優れていた。
さらに,ニューロンの活性化と可視化による解釈可能な証明を提供し,理解を深める。
関連論文リスト
- DANAA: Towards transferable attacks with double adversarial neuron
attribution [37.33924432015966]
そこで我々は,DANAAと呼ばれる二重対向ニューロン帰属攻撃法を提案し,より正確な特徴重要度推定を行う。
目標は、個々のニューロンの重みを計測し、転送可能性にとってより重要な特徴を保持することである。
論文 参考訳(メタデータ) (2023-10-16T14:11:32Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Visual Analytics of Neuron Vulnerability to Adversarial Attacks on
Convolutional Neural Networks [28.081328051535618]
畳み込みニューラルネットワーク(CNN)に対する敵対的攻撃は、高性能CNNを騙して誤った予測をする可能性がある。
我々の研究は、敵の攻撃を理解するための視覚分析手法を導入している。
視覚分析システムは、敵対的攻撃を解釈するための視覚的推論を組み込むように設計されている。
論文 参考訳(メタデータ) (2023-03-06T01:01:56Z) - Adversarial Defense via Neural Oscillation inspired Gradient Masking [0.0]
スパイクニューラルネットワーク(SNN)は、低消費電力、低レイテンシ、生物学的妥当性のために大きな注目を集めている。
本稿では,SNNの安全性を高めるためにバイオインスパイアされた発振機構を組み込んだ新しいニューラルモデルを提案する。
論文 参考訳(メタデータ) (2022-11-04T02:13:19Z) - Improving Adversarial Transferability via Neuron Attribution-Based
Attacks [35.02147088207232]
本稿では,より正確なニューロン重要度推定を行う機能レベルアタック(NAA)を提案する。
我々は、オーバーヘッドを大幅に減らすために、ニューロンの属性の近似スキームを導出する。
実験により、最先端のベンチマークに対する我々のアプローチの優位性が確認された。
論文 参考訳(メタデータ) (2022-03-31T13:47:30Z) - Adversarial Robustness in Deep Learning: Attacks on Fragile Neurons [0.6899744489931016]
第1畳み込み層の結節投棄を用いて, 深層学習アーキテクチャの脆弱で頑健なニューロンを同定した。
これらのニューロンは,ネットワーク上の敵攻撃の分布と相関する。
論文 参考訳(メタデータ) (2022-01-31T14:34:07Z) - Few-shot Backdoor Defense Using Shapley Estimation [123.56934991060788]
我々は、深層ニューラルネットワークに対するバックドア攻撃を軽減するために、Shapley Pruningと呼ばれる新しいアプローチを開発した。
ShapPruningは、感染した数少ないニューロン(全ニューロンの1%以下)を特定し、モデルの構造と正確性を保護する。
様々な攻撃やタスクに対して,本手法の有効性とロバスト性を示す実験を行った。
論文 参考訳(メタデータ) (2021-12-30T02:27:03Z) - Removing Adversarial Noise in Class Activation Feature Space [160.78488162713498]
クラスアクティベーション機能空間において,自己監視型対人訓練機構を実装することにより,対人雑音の除去を提案する。
クラスアクティベーション機能空間における敵対例と自然な例の間の距離を最小にするために、デノイジングモデルを訓練する。
経験的評価により, 従来の手法と比較して, 敵対的堅牢性が有意に向上できることが示された。
論文 参考訳(メタデータ) (2021-04-19T10:42:24Z) - And/or trade-off in artificial neurons: impact on adversarial robustness [91.3755431537592]
ネットワークに十分な数のOR様ニューロンが存在すると、分類の脆さと敵の攻撃に対する脆弱性が増加する。
そこで我々は,AND様ニューロンを定義し,ネットワーク内での割合を増大させる対策を提案する。
MNISTデータセットによる実験結果から,本手法はさらなる探索の方向として有望であることが示唆された。
論文 参考訳(メタデータ) (2021-02-15T08:19:05Z) - Fooling the primate brain with minimal, targeted image manipulation [67.78919304747498]
本稿では、行動に反映される神経活動と知覚の両方の変化をもたらす、最小限の標的画像摂動を生成するための一連の手法を提案する。
我々の研究は、敵対的攻撃、すなわち最小限のターゲットノイズによる画像の操作で同じ目標を共有し、ANNモデルに画像の誤分類を誘導する。
論文 参考訳(メタデータ) (2020-11-11T08:30:54Z) - Perceptual Adversarial Robustness: Defense Against Unseen Threat Models [58.47179090632039]
敵対的堅牢性の鍵となる課題は、人間の知覚を正確に数学的に特徴づけることの欠如である。
ニューラル・パーセプチュアル・脅威モデルの下で、我々は新しいパーセプチュアル・アタックとディフェンスを開発する。
NPTMは非常に広範であるため、知覚的攻撃に対する知覚的適応訓練(PAT)は、他の多くの種類の敵対的攻撃に対して堅牢性を与える。
論文 参考訳(メタデータ) (2020-06-22T22:40:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。