論文の概要: On the Convergence of Certified Robust Training with Interval Bound
Propagation
- arxiv url: http://arxiv.org/abs/2203.08961v1
- Date: Wed, 16 Mar 2022 21:49:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-18 15:19:16.923981
- Title: On the Convergence of Certified Robust Training with Interval Bound
Propagation
- Title(参考訳): 区間境界伝搬を用いた認定ロバストトレーニングの収束について
- Authors: Yihan Wang, Zhouxing Shi, Quanquan Gu, Cho-Jui Hsieh
- Abstract要約: IBPトレーニングの収束に関する理論的解析を行った。
IBPトレーニングを用いてランダムに2層ReLUニューラルネットワークをロジスティック損失でトレーニングする場合、勾配降下はゼロロバストトレーニングエラーに線形収束可能であることを示す。
- 参考スコア(独自算出の注目度): 147.77638840942447
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interval Bound Propagation (IBP) is so far the base of state-of-the-art
methods for training neural networks with certifiable robustness guarantees
when potential adversarial perturbations present, while the convergence of IBP
training remains unknown in existing literature. In this paper, we present a
theoretical analysis on the convergence of IBP training. With an
overparameterized assumption, we analyze the convergence of IBP robust
training. We show that when using IBP training to train a randomly initialized
two-layer ReLU neural network with logistic loss, gradient descent can linearly
converge to zero robust training error with a high probability if we have
sufficiently small perturbation radius and large network width.
- Abstract(参考訳): IBP(Interval Bound Propagation)は、既存の文献では未定ながら、潜在的対向摂動が存在する場合の堅牢性を保証するニューラルネットワークをトレーニングするための最先端の手法の基盤となっている。
本稿では,ipp訓練の収束に関する理論的解析について述べる。
過パラメータの仮定により, ibpロバストトレーニングの収束を解析した。
ibpトレーニングを用いてロジスティック損失を持つランダム初期化された2層reluニューラルネットワークをトレーニングすると、十分に小さい摂動半径と大きなネットワーク幅を持つ場合、勾配降下はゼロロバストなトレーニングエラーに線形収束する可能性がある。
関連論文リスト
- Asymmetrical estimator for training encapsulated deep photonic neural networks [10.709758849326061]
非対称訓練(asymmetrical training、AT)は、BPをベースとした訓練方法であり、カプセル化された深層ネットワーク上で訓練を行うことができる。
ATは既存のBP-PNN法に比べて時間とエネルギー効率が大幅に向上した。
集積フォトニックディープネットワークのためのATの耐エラー性および校正性のないトレーニングを実演する。
論文 参考訳(メタデータ) (2024-05-28T17:27:20Z) - Evolutionary algorithms as an alternative to backpropagation for
supervised training of Biophysical Neural Networks and Neural ODEs [12.357635939839696]
本稿では,生物物理学に基づくニューラルネットワークの学習における「段階的推定」進化アルゴリズムの利用について検討する。
EAにはいくつかのアドバンテージがあり、直接BPよりも望ましいことが分かりました。
以上の結果から,生体物理学ニューロンはBP法の限界をテストする上で有用なベンチマークを提供する可能性が示唆された。
論文 参考訳(メタデータ) (2023-11-17T20:59:57Z) - Understanding Certified Training with Interval Bound Propagation [6.688598900034783]
確実に堅牢なニューラルネットワークのトレーニングが、ますます重要になっている。
Inrecise interval bound propagation (IBP) に基づくトレーニング手法は、より正確なバウンディング手法を利用する場合よりも一貫して優れていることを示す。
このことは、厳密なIPP境界に必要な強い正規化を誘発しない新しい訓練方法の存在を示唆している。
論文 参考訳(メタデータ) (2023-06-17T21:13:30Z) - IBP Regularization for Verified Adversarial Robustness via
Branch-and-Bound [85.6899802468343]
IBP-Rは, どちらも簡便なトレーニングアルゴリズムである。
また、$beta$-CROWNに基づく新しいロバスト性であるUPBを提示し、最先端の分岐アルゴリズムのコストを削減する。
論文 参考訳(メタデータ) (2022-06-29T17:13:25Z) - A Theoretical View of Linear Backpropagation and Its Convergence [55.69505060636719]
バックプロパゲーション(BP)はディープニューラルネットワーク(DNN)の勾配を計算するために広く用いられている
最近では、NinBPと呼ばれるBPの線形変種が導入され、ブラックボックス攻撃を行うためのより伝達可能な逆の例が生み出された。
本稿では,LinBPのニューラルネットワーク関連学習課題における理論的解析について述べる。
論文 参考訳(メタデータ) (2021-12-21T07:18:00Z) - Towards Evaluating and Training Verifiably Robust Neural Networks [81.39994285743555]
We study the relationship between IBP and CROWN, and prove that CROWN are always tight than IBP when select each bounding lines。
線形結合伝播(LBP) CROWNの緩やかなバージョンを提案する。これは、大きなネットワークを検証して、より低い検証エラーを得るのに使用できる。
論文 参考訳(メタデータ) (2021-04-01T13:03:48Z) - A Convergence Theory Towards Practical Over-parameterized Deep Neural
Networks [56.084798078072396]
ネットワーク幅と収束時間の両方で既知の理論境界を大幅に改善することにより、理論と実践のギャップを埋める一歩を踏み出します。
本研究では, サンプルサイズが2次幅で, 両者の時間対数で線形なネットワークに対して, 地球最小値への収束が保証されていることを示す。
私たちの分析と収束境界は、いつでも合理的なサイズの同等のRELUネットワークに変換できる固定アクティベーションパターンを備えたサロゲートネットワークの構築によって導出されます。
論文 参考訳(メタデータ) (2021-01-12T00:40:45Z) - Scaling Equilibrium Propagation to Deep ConvNets by Drastically Reducing
its Gradient Estimator Bias [65.13042449121411]
実際には、EPによって提供される勾配推定によるネットワークのトレーニングは、MNISTよりも難しい視覚タスクにスケールしない。
有限ヌード法に固有のEPの勾配推定のバイアスがこの現象の原因であることを示す。
これらの手法を適用し、非対称な前方および後方接続を持つアーキテクチャをトレーニングし、13.2%のテストエラーを発生させる。
論文 参考訳(メタデータ) (2020-06-06T09:36:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。