論文の概要: Exploring Sparsity and Smoothness of Arbitrary $\ell_p$ Norms in Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2602.06578v1
- Date: Fri, 06 Feb 2026 10:19:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 22:18:26.351891
- Title: Exploring Sparsity and Smoothness of Arbitrary $\ell_p$ Norms in Adversarial Attacks
- Title(参考訳): 対人攻撃における任意$\ell_p$ノルムの不規則さと平滑さの探索
- Authors: Christof Duhme, Florian Eilers, Xiaoyi Jiang,
- Abstract要約: $ell_p$ norms with $pin [1.3, 1.5]$がスパースとスムーズなアタックの最良のトレードオフをもたらすことを示す。
これらの知見は、敵攻撃を設計・評価する際の規範選択の重要性を浮き彫りにした。
- 参考スコア(独自算出の注目度): 4.366212978228445
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks against deep neural networks are commonly constructed under $\ell_p$ norm constraints, most often using $p=1$, $p=2$ or $p=\infty$, and potentially regularized for specific demands such as sparsity or smoothness. These choices are typically made without a systematic investigation of how the norm parameter \( p \) influences the structural and perceptual properties of adversarial perturbations. In this work, we study how the choice of \( p \) affects sparsity and smoothness of adversarial attacks generated under \( \ell_p \) norm constraints for values of $p \in [1,2]$. To enable a quantitative analysis, we adopt two established sparsity measures from the literature and introduce three smoothness measures. In particular, we propose a general framework for deriving smoothness measures based on smoothing operations and additionally introduce a smoothness measure based on first-order Taylor approximations. Using these measures, we conduct a comprehensive empirical evaluation across multiple real-world image datasets and a diverse set of model architectures, including both convolutional and transformer-based networks. We show that the choice of $\ell_1$ or $\ell_2$ is suboptimal in most cases and the optimal $p$ value is dependent on the specific task. In our experiments, using $\ell_p$ norms with $p\in [1.3, 1.5]$ yields the best trade-off between sparse and smooth attacks. These findings highlight the importance of principled norm selection when designing and evaluating adversarial attacks.
- Abstract(参考訳): ディープニューラルネットワークに対する敵対的攻撃は、通常$\ell_p$ノルム制約の下で構築され、たいていは$p=1$、$p=2$または$p=\infty$を使用しており、スパーシリティや滑らかさといった特定の要求に対して正規化される可能性がある。
これらの選択は典型的には、ノルムパラメータ \(p \) が対向摂動の構造的および知覚的性質にどのように影響するかを体系的な研究なしに行われる。
本研究では, \(p \) の選択が, $p \in [1,2]$ の値に対する \( \ell_p \) ノルム制約の下で発生する逆攻撃の空間性と滑らか性にどのように影響するかを検討する。
定量的分析を可能にするため,文献から確立された2つの疎度尺度を採用し,スムーズ性尺度を3つ導入した。
特に,スムーズな操作に基づくスムーズな測度を導出するための一般的な枠組みを提案するとともに,一階述語Taylor近似に基づくスムーズな測度も導入する。
これらの測定値を用いて、複数の実世界の画像データセットと、畳み込みとトランスフォーマーベースのネットワークを含む多種多様なモデルアーキテクチャを包括的に評価する。
ほとんどの場合、$\ell_1$ または $\ell_2$ が最適であり、最適な $p$ は特定のタスクに依存していることを示す。
我々の実験では、$\ell_p$ norms with $p\in [1.3, 1.5]$はスパースとスムーズな攻撃の間の最良のトレードオフをもたらす。
これらの知見は、敵攻撃を設計・評価する際の規範選択の重要性を浮き彫りにした。
関連論文リスト
- Differentiable Sparsity via $D$-Gating: Simple and Versatile Structured Penalization [22.883367233817836]
D$-Gatingは、理論上、元の群疎性問題の解法と等価であることを示す。
ビジョン、言語、タスクにまたがって私たちの理論を検証する。
論文 参考訳(メタデータ) (2025-09-28T14:08:29Z) - $σ$-zero: Gradient-based Optimization of $\ell_0$-norm Adversarial Examples [14.17412770504598]
入力摂動の作成には$ell_infty$-normの制約が使用できることを示す。
我々は $sigma$NISTtt- と呼ばれる新しい $ell_infty$-norm 攻撃を提案する。
論文 参考訳(メタデータ) (2024-02-02T20:08:11Z) - A Robustness Analysis of Blind Source Separation [91.3755431537592]
ブラインドソース分離(BSS)は、変換$f$が可逆であるが未知であるという条件の下で、その混合である$X=f(S)$から観測されていない信号を復元することを目的としている。
このような違反を分析し、その影響を$X$から$S$のブラインドリカバリに与える影響を定量化するための一般的なフレームワークを提案する。
定義された構造的仮定からの偏差に対する一般的なBSS溶出は、明示的な連続性保証という形で、利益的に分析可能であることを示す。
論文 参考訳(メタデータ) (2023-03-17T16:30:51Z) - Towards Defending Multiple $\ell_p$-norm Bounded Adversarial
Perturbations via Gated Batch Normalization [120.99395850108422]
既存の敵防衛は、個々の摂動に対するモデル堅牢性を改善するのが一般的である。
最近の手法では、複数の$ell_p$球における敵攻撃に対するモデルロバスト性を改善するが、各摂動型に対するそれらの性能は、まだ十分ではない。
我々は,複数の$ell_pの有界摂動を守るために,摂動不変予測器を逆向きに訓練するGated Batch Normalization (GBN)を提案する。
論文 参考訳(メタデータ) (2020-12-03T02:26:01Z) - Squared $\ell_2$ Norm as Consistency Loss for Leveraging Augmented Data
to Learn Robust and Invariant Representations [76.85274970052762]
元のサンプルと拡張されたサンプルの埋め込み/表現の距離を規則化することは、ニューラルネットワークの堅牢性を改善するための一般的なテクニックである。
本稿では、これらの様々な正規化選択について検討し、埋め込みの正規化方法の理解を深める。
私たちが特定したジェネリックアプローチ(squared $ell$ regularized augmentation)は、それぞれ1つのタスクのために特別に設計されたいくつかの手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-11-25T22:40:09Z) - Nearly Dimension-Independent Sparse Linear Bandit over Small Action
Spaces via Best Subset Selection [71.9765117768556]
本研究では,高次元線形モデルの下での文脈的帯域問題について考察する。
この設定は、パーソナライズされたレコメンデーション、オンライン広告、パーソナライズされた医療など、不可欠な応用を見出す。
本稿では,最適部分集合選択法を用いて2重成長エポックを推定する手法を提案する。
論文 参考訳(メタデータ) (2020-09-04T04:10:39Z) - Sharp Statistical Guarantees for Adversarially Robust Gaussian
Classification [54.22421582955454]
逆向きに頑健な分類の過剰リスクに対する最適ミニマックス保証の最初の結果を提供する。
結果はAdvSNR(Adversarial Signal-to-Noise Ratio)の項で述べられており、これは標準的な線形分類と逆数設定との類似の考え方を一般化している。
論文 参考訳(メタデータ) (2020-06-29T21:06:52Z) - Toward Adversarial Robustness via Semi-supervised Robust Training [93.36310070269643]
アドリラルな例は、ディープニューラルネットワーク(DNN)に対する深刻な脅威であることが示されている。
R_stand$ と $R_rob$ の2つの異なるリスクを共同で最小化することで、新しい防御手法であるロバストトレーニング(RT)を提案する。
論文 参考訳(メタデータ) (2020-03-16T02:14:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。