論文の概要: Most Convolutional Networks Suffer from Small Adversarial Perturbations
- arxiv url: http://arxiv.org/abs/2602.03415v1
- Date: Tue, 03 Feb 2026 11:42:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.421939
- Title: Most Convolutional Networks Suffer from Small Adversarial Perturbations
- Title(参考訳): 殆どの畳み込みネットワークは、小さな対向的摂動によって引き起こされる
- Authors: Amit Daniely, Idan Mehalel,
- Abstract要約: 最近の研究は、CNNにおいて、入力から最適でない距離において、逆の例が見つかることを証明している。
入力次元が$d$のランダムCNNの逆例は、$ll$-distance of order $lVert x rVert /sqrtd$ from the input $x$。
また,このような逆方向の小さな摂動は,勾配降下の1ステップで観測できることも示している。
- 参考スコア(独自算出の注目度): 10.828616610785524
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The existence of adversarial examples is relatively understood for random fully connected neural networks, but much less so for convolutional neural networks (CNNs). The recent work [Daniely, 2025] establishes that adversarial examples can be found in CNNs, in some non-optimal distance from the input. We extend over this work and prove that adversarial examples in random CNNs with input dimension $d$ can be found already in $\ell_2$-distance of order $\lVert x \rVert /\sqrt{d}$ from the input $x$, which is essentially the nearest possible. We also show that such adversarial small perturbations can be found using a single step of gradient descent. To derive our results we use Fourier decomposition to efficiently bound the singular values of a random linear convolutional operator, which is the main ingredient of a CNN layer. This bound might be of independent interest.
- Abstract(参考訳): 敵の例の存在は、ランダムに完全に接続されたニューラルネットワークでは比較的理解されているが、畳み込みニューラルネットワーク(CNN)ではそれほど理解されていない。
最近の研究[Daniely, 2025] は、入力から最適でない距離において、CNNで逆例が見つかることを証明している。
この作業を拡張し、入力次元が$d$のランダムCNNの逆例が$\ell_2$-distance of order $\lVert x \rVert /\sqrt{d}$ に既に存在することを証明します。
また,このような逆方向の小さな摂動は,勾配降下の1ステップで観測できることも示している。
結果の導出には、フーリエ分解を用いて、CNN層の主成分であるランダム線形畳み込み作用素の特異値を効率的に結合する。
この境界は独立した関心事かもしれない。
関連論文リスト
- Neural Networks Learn Generic Multi-Index Models Near Information-Theoretic Limit [66.20349460098275]
一般ガウス多次元モデル $f(boldsymbolx)=g(boldsymbolUboldsymbolx)$ の勾配降下学習を隠蔽部分空間 $boldsymbolUin mathbbRrtimes d$ で研究する。
リンク関数上の一般的な非退化仮定の下では、層次勾配勾配勾配によって訓練された標準的な2層ニューラルネットワークは、$o_d(1)$テスト誤差でターゲットを不可知的に学習できることを示す。
論文 参考訳(メタデータ) (2025-11-19T04:46:47Z) - Bayesian Neural Networks: A Min-Max Game Framework [1.8032347672439046]
ディープラーニングでは、ベイジアンニューラルネットワーク(BNN)がロバストネス分析の役割を担っている。
ミニマックス法を用いて保守的BNNを研究し,決定論的ニューラルネットワークの$f$と閉ループニューラルネットワークの$f+rxi$の2プレーヤゲームを定式化する。
論文 参考訳(メタデータ) (2023-11-18T17:17:15Z) - Theoretical Analysis of Inductive Biases in Deep Convolutional Networks [16.41952363194339]
畳み込みニューラルネットワーク(CNN)における誘導バイアスの理論解析
CNN, ローカル接続ネットワーク(LCN) および完全接続ネットワーク(FCN) の性能を, 簡単な回帰処理で比較する。
LCNが$Omega(d)$サンプルを必要とするのに対して、CNNは$widetildemathcalO(log2d)$サンプルしか必要とせず、重量共有の重要な役割を強調している。
論文 参考訳(メタデータ) (2023-05-15T07:40:07Z) - Generalization and Stability of Interpolating Neural Networks with
Minimal Width [37.908159361149835]
補間系における勾配によって訓練された浅層ニューラルネットワークの一般化と最適化について検討する。
トレーニング損失数は$m=Omega(log4 (n))$ニューロンとニューロンを最小化する。
m=Omega(log4 (n))$のニューロンと$Tapprox n$で、テスト損失のトレーニングを$tildeO (1/)$に制限します。
論文 参考訳(メタデータ) (2023-02-18T05:06:15Z) - The Onset of Variance-Limited Behavior for Networks in the Lazy and Rich
Regimes [75.59720049837459]
無限幅挙動からこの分散制限状態への遷移をサンプルサイズ$P$とネットワーク幅$N$の関数として検討する。
有限サイズ効果は、ReLUネットワークによる回帰のために、$P* sim sqrtN$の順序で非常に小さなデータセットに関係があることが分かる。
論文 参考訳(メタデータ) (2022-12-23T04:48:04Z) - Bounding the Width of Neural Networks via Coupled Initialization -- A
Worst Case Analysis [121.9821494461427]
2層ReLUネットワークに必要なニューロン数を著しく削減する方法を示す。
また、事前の作業を改善するための新しい下位境界を証明し、ある仮定の下では、最善を尽くすことができることを証明します。
論文 参考訳(メタデータ) (2022-06-26T06:51:31Z) - The Rate of Convergence of Variation-Constrained Deep Neural Networks [35.393855471751756]
変動制約のあるニューラルネットワークのクラスは、任意に小さな定数$delta$に対して、ほぼパラメトリックレート$n-1/2+delta$を達成することができることを示す。
その結果、滑らかな関数の近似に必要な神経機能空間は、しばしば知覚されるものほど大きくない可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-22T21:28:00Z) - Beyond Lazy Training for Over-parameterized Tensor Decomposition [69.4699995828506]
過度なパラメータ化対象の勾配勾配は遅延学習体制を超え、データ中の特定の低ランク構造を利用する可能性があることを示す。
以上の結果から,過パラメータ化対象の勾配勾配は遅延学習体制を超え,データ中の特定の低ランク構造を利用する可能性が示唆された。
論文 参考訳(メタデータ) (2020-10-22T00:32:12Z) - Approximating smooth functions by deep neural networks with sigmoid
activation function [0.0]
我々は,シグモイド活性化機能を持つディープニューラルネットワーク(DNN)のパワーについて検討した。
固定深度と幅が$Md$で近似レートが$M-2p$であることを示す。
論文 参考訳(メタデータ) (2020-10-08T07:29:31Z) - Shuffling Recurrent Neural Networks [97.72614340294547]
隠れ状態 $h_t$ を以前の隠れ状態 $h_t-1$ のベクトル要素を置換することにより、隠れ状態 $h_t$ が得られる新しいリカレントニューラルネットワークモデルを提案する。
私たちのモデルでは、予測は第2の学習関数によって与えられ、隠された状態 $s(h_t)$ に適用されます。
論文 参考訳(メタデータ) (2020-07-14T19:36:10Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。