論文の概要: NAT: Learning to Attack Neurons for Enhanced Adversarial Transferability
- arxiv url: http://arxiv.org/abs/2508.16937v1
- Date: Sat, 23 Aug 2025 08:06:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.263554
- Title: NAT: Learning to Attack Neurons for Enhanced Adversarial Transferability
- Title(参考訳): NAT: 対向移動性を高めるためにニューロンを攻撃することを学ぶ
- Authors: Krishna Kanth Nakka, Alexandre Alahi,
- Abstract要約: Neuron Attack for Transferability (NAT) は、特定のニューロンを埋め込む方法である。
我々のアプローチは、以前の階層レベルの最適化がいくつかのニューロンに不均等に焦点をあてることがしばしばあるという観察に動機づけられている。
個々のニューロンを標的にすることで、ニューラルネットワークのコアユニットを効果的に破壊する。
- 参考スコア(独自算出の注目度): 77.1713948526578
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The generation of transferable adversarial perturbations typically involves training a generator to maximize embedding separation between clean and adversarial images at a single mid-layer of a source model. In this work, we build on this approach and introduce Neuron Attack for Transferability (NAT), a method designed to target specific neuron within the embedding. Our approach is motivated by the observation that previous layer-level optimizations often disproportionately focus on a few neurons representing similar concepts, leaving other neurons within the attacked layer minimally affected. NAT shifts the focus from embedding-level separation to a more fundamental, neuron-specific approach. We find that targeting individual neurons effectively disrupts the core units of the neural network, providing a common basis for transferability across different models. Through extensive experiments on 41 diverse ImageNet models and 9 fine-grained models, NAT achieves fooling rates that surpass existing baselines by over 14\% in cross-model and 4\% in cross-domain settings. Furthermore, by leveraging the complementary attacking capabilities of the trained generators, we achieve impressive fooling rates within just 10 queries. Our code is available at: https://krishnakanthnakka.github.io/NAT/
- Abstract(参考訳): 転写可能な対向摂動の生成は、典型的には、ソースモデルの1つの中間層におけるクリーン画像と対向画像の埋め込み分離を最大化するためにジェネレータを訓練する。
本研究は, 本手法を基礎として, 埋め込み内において特定のニューロンを標的にすることを目的としたNAT(Neuron Attack for Transferability)を導入する。
我々のアプローチは、以前の階層レベルの最適化は、しばしば同様の概念を表す少数のニューロンに不均等に焦点を合わせ、攻撃された層内の他のニューロンに最小限の影響を与える、という観察に動機づけられている。
NATは、埋め込みレベルの分離から、より基本的でニューロン固有のアプローチへと焦点を移す。
個々のニューロンを標的にすることで、ニューラルネットワークのコアユニットを効果的に破壊し、異なるモデル間での転送可能性の共通基盤を提供する。
41の多様なImageNetモデルと9つのきめ細かいモデルに関する広範な実験を通じて、NATは、既存のベースラインを14倍以上越え、クロスドメイン設定で4倍を超える愚かな率を達成する。
さらに、トレーニングされたジェネレータの補完攻撃能力を活用することで、わずか10クエリで驚くほどの愚かさ率を達成することができる。
私たちのコードは、https://krishnakanthnakka.github.io/NAT/で利用可能です。
関連論文リスト
- Fully Spiking Actor Network with Intra-layer Connections for
Reinforcement Learning [51.386945803485084]
エージェントが制御する多次元決定論的ポリシーを学習する必要があるタスクに焦点をあてる。
既存のスパイクベースのRL法は、SNNの出力として発火率を取り、完全に接続された層を通して連続的なアクション空間(つまり決定論的なポリシー)を表すように変換する。
浮動小数点行列操作を伴わない完全にスパイクするアクターネットワークを開発するため,昆虫に見られる非スパイク介在ニューロンからインスピレーションを得た。
論文 参考訳(メタデータ) (2024-01-09T07:31:34Z) - Desire Backpropagation: A Lightweight Training Algorithm for Multi-Layer
Spiking Neural Networks based on Spike-Timing-Dependent Plasticity [13.384228628766236]
スパイキングニューラルネットワーク(SNN)は、従来の人工ニューラルネットワークの代替となる。
本研究は,隠されたニューロンを含むすべてのニューロンの所望のスパイク活性を導出する方法である欲求バックプロパゲーションを提示する。
我々はMNISTとFashion-MNISTを分類するために3層ネットワークを訓練し、それぞれ98.41%と87.56%の精度に達した。
論文 参考訳(メタデータ) (2022-11-10T08:32:13Z) - Improving Adversarial Transferability via Neuron Attribution-Based
Attacks [35.02147088207232]
本稿では,より正確なニューロン重要度推定を行う機能レベルアタック(NAA)を提案する。
我々は、オーバーヘッドを大幅に減らすために、ニューロンの属性の近似スキームを導出する。
実験により、最先端のベンチマークに対する我々のアプローチの優位性が確認された。
論文 参考訳(メタデータ) (2022-03-31T13:47:30Z) - Dynamic Neural Diversification: Path to Computationally Sustainable
Neural Networks [68.8204255655161]
訓練可能なパラメータが制限された小さなニューラルネットワークは、多くの単純なタスクに対してリソース効率の高い候補となる。
学習過程において隠れた層内のニューロンの多様性を探索する。
ニューロンの多様性がモデルの予測にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2021-09-20T15:12:16Z) - Super Neurons [18.710336981941147]
非線形学習ユニットを用いたニューラルネットワークモデルとして,自己組織型オペレーショナルニューラルネットワーク(Self-ONN)が提案されている。
Self-ONNには、ローカライズされた(固定された)カーネル操作という共通の欠点がある。
本稿では、ランダムまたは学習可能なカーネルシフトを可能にする優れた(生成的な)ニューロンモデルを示す。
論文 参考訳(メタデータ) (2021-08-03T16:17:45Z) - And/or trade-off in artificial neurons: impact on adversarial robustness [91.3755431537592]
ネットワークに十分な数のOR様ニューロンが存在すると、分類の脆さと敵の攻撃に対する脆弱性が増加する。
そこで我々は,AND様ニューロンを定義し,ネットワーク内での割合を増大させる対策を提案する。
MNISTデータセットによる実験結果から,本手法はさらなる探索の方向として有望であることが示唆された。
論文 参考訳(メタデータ) (2021-02-15T08:19:05Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。