論文の概要: Universal and Efficient Detection of Adversarial Data through Nonuniform Impact on Network Layers
- arxiv url: http://arxiv.org/abs/2506.20816v1
- Date: Wed, 25 Jun 2025 20:30:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:09.879374
- Title: Universal and Efficient Detection of Adversarial Data through Nonuniform Impact on Network Layers
- Title(参考訳): ネットワーク層への不均一影響による敵データの普遍的かつ効率的な検出
- Authors: Furkan Mumcu, Yasin Yilmaz,
- Abstract要約: ディープニューラルネットワーク(DNN)は、雑音の予算が限られている敵の入力設計に弱いことで知られている。
既存の検出手法は、最先端の攻撃技術に対して非効率であるか、あるいはリアルタイム処理において計算的に非効率であることを示す。
そこで本研究では,異なるDNN層に対する攻撃の影響の度合いを解析することにより,敵の事例を検出する,新しい汎用的で効率的な手法を提案する。
- 参考スコア(独自算出の注目度): 24.585379549997743
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep Neural Networks (DNNs) are notoriously vulnerable to adversarial input designs with limited noise budgets. While numerous successful attacks with subtle modifications to original input have been proposed, defense techniques against these attacks are relatively understudied. Existing defense approaches either focus on improving DNN robustness by negating the effects of perturbations or use a secondary model to detect adversarial data. Although equally important, the attack detection approach, which is studied in this work, provides a more practical defense compared to the robustness approach. We show that the existing detection methods are either ineffective against the state-of-the-art attack techniques or computationally inefficient for real-time processing. We propose a novel universal and efficient method to detect adversarial examples by analyzing the varying degrees of impact of attacks on different DNN layers. {Our method trains a lightweight regression model that predicts deeper-layer features from early-layer features, and uses the prediction error to detect adversarial samples.} Through theoretical arguments and extensive experiments, we demonstrate that our detection method is highly effective, computationally efficient for real-time processing, compatible with any DNN architecture, and applicable across different domains, such as image, video, and audio.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、雑音の予算が限られている敵の入力設計に弱いことで知られている。
オリジナル入力に微妙な修正を加えた攻撃が多数提案されているが、これらの攻撃に対する防御技術は比較的検討されている。
既存の防御アプローチは、摂動の影響を否定することでDNNの堅牢性を改善することに集中するか、あるいは敵対的なデータを検出するために二次モデルを使用する。
同様に重要なことではあるが、本研究で研究されている攻撃検出アプローチは、ロバストネスアプローチよりも実用的な防御手段を提供する。
既存の検出手法は、最先端の攻撃技術に対して非効率であるか、あるいはリアルタイム処理において計算的に非効率であることを示す。
そこで本研究では,異なるDNN層に対する攻撃の影響の度合いを解析することにより,敵の事例を検出する,新しい汎用的で効率的な手法を提案する。
Ourメソッドは、アーリー層の特徴からディープ層の特徴を予測する軽量回帰モデルをトレーニングし、予測エラーを使用して敵のサンプルを検出する。
理論的議論と広範な実験を通じて,我々の検出手法はリアルタイム処理に極めて効果的であり,DNNアーキテクチャと互換性があり,画像,ビデオ,オーディオなど,さまざまな領域に適用可能であることを示す。
関連論文リスト
- Detecting Adversarial Examples [24.585379549997743]
本稿では,Deep Neural Networks (DNN) の層出力を解析して,敵のサンプルを検出する新しい手法を提案する。
提案手法は, 最深層特徴量から深層特徴量を予測する軽量回帰モデルを訓練し, 予測誤差を用いて対向サンプルを検出する。
論文 参考訳(メタデータ) (2024-10-22T21:42:59Z) - Enhancing Adversarial Robustness via Score-Based Optimization [22.87882885963586]
敵対的攻撃は、わずかな摂動を導入することによって、ディープニューラルネットワーク分類器を誤認する可能性がある。
ScoreOptと呼ばれる新しい対向防御方式を導入し、テスト時に対向サンプルを最適化する。
実験の結果,本手法は性能とロバスト性の両方において,既存の敵防御よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-07-10T03:59:42Z) - Adversarial Examples Detection with Enhanced Image Difference Features
based on Local Histogram Equalization [20.132066800052712]
本稿では,高頻度情報強調戦略に基づく逆例検出フレームワークを提案する。
このフレームワークは、敵の例と通常の例との特徴的差異を効果的に抽出し、増幅することができる。
論文 参考訳(メタデータ) (2023-05-08T03:14:01Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Searching for an Effective Defender: Benchmarking Defense against
Adversarial Word Substitution [83.84968082791444]
ディープニューラルネットワークは、意図的に構築された敵の例に対して脆弱である。
ニューラルNLPモデルに対する敵対的単語置換攻撃を防御する様々な方法が提案されている。
論文 参考訳(メタデータ) (2021-08-29T08:11:36Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。