論文の概要: Deep learning models are vulnerable, but adversarial examples are even more vulnerable
- arxiv url: http://arxiv.org/abs/2511.05073v1
- Date: Fri, 07 Nov 2025 08:43:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.712914
- Title: Deep learning models are vulnerable, but adversarial examples are even more vulnerable
- Title(参考訳): ディープラーニングモデルは脆弱だが、敵対的な例はさらに脆弱だ
- Authors: Jun Li, Yanwei Xu, Keran Li, Xiaoli Zhang,
- Abstract要約: この研究は、画像に基づく敵の例が特に閉塞に敏感であることを実証的に見出した。
本研究では,従来の逆行訓練の破滅的なオーバーフィッティングを回避するために,スライディングウィンドウマスクを用いた適応例検出(SWM-AED)を提案する。
CIFAR-10の分類と攻撃による評価は、ほとんどの場合62%以上の精度で96.5%までの堅牢な性能を示した。
- 参考スコア(独自算出の注目度): 7.097468024050319
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding intrinsic differences between adversarial examples and clean samples is key to enhancing DNN robustness and detection against adversarial attacks. This study first empirically finds that image-based adversarial examples are notably sensitive to occlusion. Controlled experiments on CIFAR-10 used nine canonical attacks (e.g., FGSM, PGD) to generate adversarial examples, paired with original samples for evaluation. We introduce Sliding Mask Confidence Entropy (SMCE) to quantify model confidence fluctuation under occlusion. Using 1800+ test images, SMCE calculations supported by Mask Entropy Field Maps and statistical distributions show adversarial examples have significantly higher confidence volatility under occlusion than originals. Based on this, we propose Sliding Window Mask-based Adversarial Example Detection (SWM-AED), which avoids catastrophic overfitting of conventional adversarial training. Evaluations across classifiers and attacks on CIFAR-10 demonstrate robust performance, with accuracy over 62% in most cases and up to 96.5%.
- Abstract(参考訳): 敵のサンプルとクリーンサンプルの本質的な違いを理解することは、DNNの堅牢性を高め、敵の攻撃を検知する鍵となる。
この研究は、画像に基づく敵の例が特に閉塞に敏感であることを実証的に見出した。
CIFAR-10の制御された実験では、9つの正準攻撃(例えば、FGSM、PGD)を使用して対向的なサンプルを生成し、元のサンプルと組み合わせて評価した。
スライディングマスク信頼性エントロピー (SMCE) を導入し, 閉塞下でのモデル信頼度変動を定量化する。
1800以上のテスト画像を用いて、マスクエントロピーフィールドマップと統計分布によって支持されたSMCE計算により、敵の例はオリジナルのものよりもはるかに高い信頼性のボラティリティを示す。
そこで本研究では,従来の逆方向トレーニングの破滅的なオーバーフィッティングを回避するために,スライディングウィンドウマスクを用いた逆方向例検出(SWM-AED)を提案する。
CIFAR-10の分類と攻撃による評価は、ほとんどの場合62%以上の精度で96.5%までの堅牢な性能を示した。
関連論文リスト
- Prediction Inconsistency Helps Achieve Generalizable Detection of Adversarial Examples [31.535244194865236]
Prediction Inconsistency Detector (PID) は軽量で一般化可能な検出フレームワークである。
PIDは自然と敵対的に訓練された原始モデルの両方と互換性がある。
3つのホワイトボックス、3つのブラックボックス、1つの混合敵攻撃で4つの検出方法を上回っている。
論文 参考訳(メタデータ) (2025-06-04T09:29:11Z) - CopyrightShield: Enhancing Diffusion Model Security against Copyright Infringement Attacks [61.06621533874629]
拡散モデルは、攻撃者が戦略的に修正された非侵害画像をトレーニングセットに注入する著作権侵害攻撃に弱い。
まず、上記の攻撃に対して防御するための防御フレームワーク、PhiliptyShieldを提案する。
実験により,PhiliptyShieldは2つの攻撃シナリオで有毒なサンプル検出性能を著しく向上することが示された。
論文 参考訳(メタデータ) (2024-12-02T14:19:44Z) - Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - Extreme Miscalibration and the Illusion of Adversarial Robustness [66.29268991629085]
敵の訓練は、しばしばモデルの堅牢性を高めるために使用される。
我々は、この観測されたロバストネスの利得はロバストネスの錯覚(IOR)であることを示した。
我々は,NLPコミュニティに対して,試験時間温度のスケーリングを堅牢性評価に組み込むよう促す。
論文 参考訳(メタデータ) (2024-02-27T13:49:12Z) - Adversarial defense based on distribution transfer [22.14684430074648]
敵対的な例の存在は、ディープラーニングモデルとその応用に重大な脅威をもたらす。
既存の防御方法は、敵の例に対してある種の弾力性を提供するが、しばしば精度の低下と一般化性能に悩まされる。
本稿では,拡散モデルの分散伝達能力を利用した分散シフトに基づく防御手法を提案する。
論文 参考訳(メタデータ) (2023-11-23T08:01:18Z) - Latent Feature Relation Consistency for Adversarial Robustness [80.24334635105829]
深層ニューラルネットワークは、人間の知覚できない敵のノイズを自然の例に付加する敵の例を予測するときに、誤分類が起こる。
textbfLatent textbfFeature textbfRelation textbfConsistency (textbfLFRC)を提案する。
LFRCは、潜在空間における逆例の関係を、自然例と整合性に制約する。
論文 参考訳(メタデータ) (2023-03-29T13:50:01Z) - Identifying Adversarially Attackable and Robust Samples [1.4213973379473654]
アドリアックは、入力サンプルに小さな、知覚不能な摂動を挿入し、ディープラーニングモデルの出力に大きな、望ましくない変化を引き起こす。
本研究は, 対人攻撃に最も影響を受けやすいサンプルを同定することを目的とした, サンプル攻撃可能性の概念を紹介する。
本研究では,未知のターゲットモデルに対する未知のデータセットにおいて,逆攻撃可能で頑健なサンプルを識別するディープラーニングベースの検出器を提案する。
論文 参考訳(メタデータ) (2023-01-30T13:58:14Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Attack-Agnostic Adversarial Detection [13.268960384729088]
本稿では,2つの側面において,敵対的不可知論による統計的偏差を定量化する。
本手法は, CIFAR10, CIFAR100, SVHNでそれぞれ94.9%, 89.7%, 94.6%のROC AUCを達成でき, 攻撃のほとんどにおいて敵の例で訓練した対向検出器と同等の性能を有することを示す。
論文 参考訳(メタデータ) (2022-06-01T13:41:40Z) - Exploiting epistemic uncertainty of the deep learning models to generate
adversarial samples [0.7734726150561088]
敵機械学習」は、新たな敵攻撃を考案し、より堅牢なアーキテクチャでこれらの攻撃を防御することを目的としている。
本研究では,モンテカルロ・ドロップアウトサンプリングから得られた定量的な疫学的不確実性について,敵対的攻撃目的に利用することを検討した。
提案手法により,攻撃成功率は82.59%から85.40%,82.86%から89.92%,88.06%から90.03%に向上した。
論文 参考訳(メタデータ) (2021-02-08T11:59:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。