論文の概要: Achieving Constraints in Neural Networks: A Stochastic Augmented
Lagrangian Approach
- arxiv url: http://arxiv.org/abs/2310.16647v1
- Date: Wed, 25 Oct 2023 13:55:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 14:34:06.997348
- Title: Achieving Constraints in Neural Networks: A Stochastic Augmented
Lagrangian Approach
- Title(参考訳): ニューラルネットワークにおける制約の達成:確率的拡張ラグランジアンアプローチ
- Authors: Diogo Lavado, Cl\'audia Soares and Alessandra Micheletti
- Abstract要約: DNN(Deep Neural Networks)の正規化は、一般化性の向上とオーバーフィッティングの防止に不可欠である。
制約付き最適化問題としてトレーニングプロセスのフレーミングによるDNN正規化に対する新しいアプローチを提案する。
我々はAugmented Lagrangian (SAL) 法を用いて、より柔軟で効率的な正規化機構を実現する。
- 参考スコア(独自算出の注目度): 49.1574468325115
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Regularizing Deep Neural Networks (DNNs) is essential for improving
generalizability and preventing overfitting. Fixed penalty methods, though
common, lack adaptability and suffer from hyperparameter sensitivity. In this
paper, we propose a novel approach to DNN regularization by framing the
training process as a constrained optimization problem. Where the data fidelity
term is the minimization objective and the regularization terms serve as
constraints. Then, we employ the Stochastic Augmented Lagrangian (SAL) method
to achieve a more flexible and efficient regularization mechanism. Our approach
extends beyond black-box regularization, demonstrating significant improvements
in white-box models, where weights are often subject to hard constraints to
ensure interpretability. Experimental results on image-based classification on
MNIST, CIFAR10, and CIFAR100 datasets validate the effectiveness of our
approach. SAL consistently achieves higher Accuracy while also achieving better
constraint satisfaction, thus showcasing its potential for optimizing DNNs
under constrained settings.
- Abstract(参考訳): DNN(Deep Neural Networks)の正規化は、一般化性とオーバーフィッティングの防止に不可欠である。
固定ペナルティメソッドは一般的ではあるが、適応性がなく、ハイパーパラメータの感度に苦しむ。
本稿では,制約付き最適化問題としてトレーニングプロセスのフレーミングによるDNN正規化の新たなアプローチを提案する。
データ忠実度項が最小化目標であり、正規化項が制約となる場合。
次に,確率的拡張ラグランジアン(sal)法を用いて,より柔軟で効率的な正則化機構を実現する。
我々のアプローチはブラックボックスの正規化を超えて、重み付けがしばしば解釈可能性を確保するために厳しい制約を受けるホワイトボックスモデルの大幅な改善を示す。
MNIST, CIFAR10, CIFAR100データセットのイメージベース分類実験により, 本手法の有効性が検証された。
salは一貫して高い精度を達成し、制約満足度も向上し、制約条件下でdnnを最適化する可能性を示した。
関連論文リスト
- A constrained optimization approach to improve robustness of neural networks [1.2338729811609355]
クリーンなデータに対する精度を維持しつつ、敵攻撃に対する堅牢性を向上させるために、ファインチューン事前学習ニューラルネットワークに対する非線形プログラミングに基づく新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-09-18T18:37:14Z) - HERTA: A High-Efficiency and Rigorous Training Algorithm for Unfolded Graph Neural Networks [14.139047596566485]
HERTAは、Unfolded GNNの高効率で厳格なトレーニングアルゴリズムである。
HERTAは元のモデルの最適値に収束し、アンフォールドGNNの解釈可能性を維持する。
HERTAの副産物として、正規化および正規化グラフラプラシアンに適用可能な新しいスペクトルスカラー化法を提案する。
論文 参考訳(メタデータ) (2024-03-26T23:03:06Z) - Enhancing Reliability of Neural Networks at the Edge: Inverted
Normalization with Stochastic Affine Transformations [0.22499166814992438]
インメモリコンピューティングアーキテクチャに実装されたBayNNのロバスト性と推論精度を本質的に向上する手法を提案する。
実証的な結果は推論精度の優雅な低下を示し、最大で58.11%の値で改善された。
論文 参考訳(メタデータ) (2024-01-23T00:27:31Z) - Towards Continual Learning Desiderata via HSIC-Bottleneck
Orthogonalization and Equiangular Embedding [55.107555305760954]
本稿では,レイヤワイドパラメータのオーバーライトや決定境界の歪みに起因する,概念的にシンプルで効果的な手法を提案する。
提案手法は,ゼロの指数バッファと1.02倍の差が絶対的に優れていても,競争精度が向上する。
論文 参考訳(メタデータ) (2024-01-17T09:01:29Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Better Training using Weight-Constrained Stochastic Dynamics [0.0]
我々は、トレーニングを通してディープニューラルネットワークのパラメータ空間を制御するために制約を用いる。
カスタマイズされた適切な設計の制約を使用することで、消滅/展開の問題を減らすことができる。
グラデーションランゲヴィンフレームワークに制約を効率的に組み込むための一般的なアプローチを提供する。
論文 参考訳(メタデータ) (2021-06-20T14:41:06Z) - FISAR: Forward Invariant Safe Reinforcement Learning with a Deep Neural
Network-Based Optimize [44.65622657676026]
Lyapunov関数として制約を取り、ポリシーパラメータの更新ダイナミクスに新たな線形制約を課す。
新しい保証可能な制約が元のポリシーパラメータの代わりに動的に更新されるため、古典的な最適化アルゴリズムはもはや適用されない。
論文 参考訳(メタデータ) (2020-06-19T21:58:42Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。