論文の概要: Adversarial robustness through Lipschitz-Guided Stochastic Depth in Neural Networks
- arxiv url: http://arxiv.org/abs/2509.10298v1
- Date: Fri, 12 Sep 2025 14:38:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-15 16:03:08.128145
- Title: Adversarial robustness through Lipschitz-Guided Stochastic Depth in Neural Networks
- Title(参考訳): ニューラルネットワークにおけるリプシッツ誘導確率深さによる対向ロバスト性
- Authors: Laith Nayal, Mahmoud Mousatat, Bader Rasheed,
- Abstract要約: ディープニューラルネットワークとビジョントランスフォーマーはコンピュータビジョンにおける最先端のパフォーマンスを達成するが、敵の計算には非常に脆弱である。
本稿では,リプシッツ誘導深度(DropPath)法を提案する。
CIFAR-10とViT-Tinyを用いた実験により、我々のカスタム深度依存スケジュールは、ほぼベースラインのクリーニング精度を維持し、FGSM、PGD-20、AutoAttackでのロバスト性を向上し、ベースラインおよびリニアDropPathスケジュールと比較してFLOPを大幅に低減することが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks and Vision Transformers achieve state-of-the-art performance in computer vision but are highly vulnerable to adversarial perturbations. Standard defenses often incur high computational cost or lack formal guarantees. We propose a Lipschitz-guided stochastic depth (DropPath) method, where drop probabilities increase with depth to control the effective Lipschitz constant of the network. This approach regularizes deeper layers, improving robustness while preserving clean accuracy and reducing computation. Experiments on CIFAR-10 with ViT-Tiny show that our custom depth-dependent schedule maintains near-baseline clean accuracy, enhances robustness under FGSM, PGD-20, and AutoAttack, and significantly reduces FLOPs compared to baseline and linear DropPath schedules.
- Abstract(参考訳): ディープニューラルネットワークとビジョントランスフォーマーは、コンピュータビジョンにおける最先端のパフォーマンスを達成するが、敵の摂動に対して非常に脆弱である。
標準的な防御は、しばしば高い計算コストを発生させるか、正式な保証を欠く。
本稿では,リプシッツ誘導確率深さ(DropPath)法を提案する。
このアプローチは、より深いレイヤを規則化し、クリーンな精度を維持しながら堅牢性を改善し、計算を削減します。
CIFAR-10とViT-Tinyを用いた実験により、我々のカスタム深度依存スケジュールは、ほぼベースラインのクリーニング精度を維持し、FGSM、PGD-20、AutoAttackでのロバスト性を向上し、ベースラインおよびリニアDropPathスケジュールと比較してFLOPを大幅に低減することが示された。
関連論文リスト
- ECLipsE: Efficient Compositional Lipschitz Constant Estimation for Deep Neural Networks [0.8993153817914281]
リプシッツ定数は、入力摂動に対するニューラルネットワークの堅牢性を証明する上で重要な役割を果たす。
リプシッツ定数の厳密な上界を得る努力がなされている。
ディープフィードフォワードニューラルネットワークに対するリプシッツ定数を推定するための構成的アプローチを提案する。
論文 参考訳(メタデータ) (2024-04-05T19:36:26Z) - DP-SGD Without Clipping: The Lipschitz Neural Network Way [5.922390405022253]
ディファレンシャル・プライベート(DP)ディープ・ニューラル・ニューラルネットワーク(DNN)の訓練
パラメータに関して各レイヤのリプシッツ定数をバウンドすることで、これらのネットワークをプライバシ保証でトレーニングできることを証明します。
我々の分析では、上記の感性度を大規模に計算できるだけでなく、固定されたプライバシー保証のための勾配-雑音比を最大化するためのガイダンスも提供しています。
論文 参考訳(メタデータ) (2023-05-25T16:05:46Z) - Chordal Sparsity for Lipschitz Constant Estimation of Deep Neural
Networks [77.82638674792292]
ニューラルネットワークのリプシッツ定数は、画像分類の堅牢性、コントローラ設計の安全性、トレーニングデータを超えた一般化性を保証する。
リプシッツ定数の計算はNPハードであるため、リプシッツ定数を推定する手法はスケーラビリティと精度のトレードオフをナビゲートする必要がある。
本研究では,LipSDPと呼ばれる半定値プログラミング手法のスケーラビリティフロンティアを大幅に推し進め,精度の損失をゼロにする。
論文 参考訳(メタデータ) (2022-04-02T11:57:52Z) - Training Certifiably Robust Neural Networks with Efficient Local
Lipschitz Bounds [99.23098204458336]
認証された堅牢性は、安全クリティカルなアプリケーションにおいて、ディープニューラルネットワークにとって望ましい性質である。
提案手法は,MNISTおよびTinyNetデータセットにおける最先端の手法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2021-11-02T06:44:10Z) - Scalable Lipschitz Residual Networks with Convex Potential Flows [120.27516256281359]
残差ネットワーク勾配流における凸ポテンシャルを用いることで,1ドルのLipschitz変換が組み込まれていることを示す。
CIFAR-10の包括的な実験は、アーキテクチャのスケーラビリティと、証明可能な防御に$ell$のアプローチの利点を実証している。
論文 参考訳(メタデータ) (2021-10-25T07:12:53Z) - Differentially private training of neural networks with Langevin
dynamics forcalibrated predictive uncertainty [58.730520380312676]
その結果,DP-SGD(差分偏差勾配勾配勾配勾配勾配)は,低校正・過信深層学習モデルが得られることがわかった。
これは、医療診断など、安全クリティカルな応用にとって深刻な問題である。
論文 参考訳(メタデータ) (2021-07-09T08:14:45Z) - Robust Learning via Persistency of Excitation [4.674053902991301]
勾配勾配勾配を用いたネットワークトレーニングは力学系パラメータ推定問題と等価であることを示す。
極値理論を用いて対応するリプシッツ定数を推定する効率的な手法を提案する。
我々の手法は、様々な最先端の対数訓練モデルにおいて、対数精度を0.1%から0.3%に普遍的に向上させる。
論文 参考訳(メタデータ) (2021-06-03T18:49:05Z) - Scaling Equilibrium Propagation to Deep ConvNets by Drastically Reducing
its Gradient Estimator Bias [65.13042449121411]
実際には、EPによって提供される勾配推定によるネットワークのトレーニングは、MNISTよりも難しい視覚タスクにスケールしない。
有限ヌード法に固有のEPの勾配推定のバイアスがこの現象の原因であることを示す。
これらの手法を適用し、非対称な前方および後方接続を持つアーキテクチャをトレーニングし、13.2%のテストエラーを発生させる。
論文 参考訳(メタデータ) (2020-06-06T09:36:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。