論文の概要: Lattice-based Deep Neural Networks: Regularity and Tailored Regularization
- arxiv url: http://arxiv.org/abs/2603.02809v1
- Date: Tue, 03 Mar 2026 09:53:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.744437
- Title: Lattice-based Deep Neural Networks: Regularity and Tailored Regularization
- Title(参考訳): 格子型ディープニューラルネットワーク:規則性と整列正規化
- Authors: Alexander Keller, Frances Y. Kuo, Dirk Nuyens, Ian H. Sloan,
- Abstract要約: 格子規則は準モンテカルロ法に属する。
彼らは高次元積分と関数近似の様々な文脈において有効性を示した。
調整された正規化で訓練されたDNNは、標準$ell$正規化よりもはるかに優れた性能を示す。
- 参考スコア(独自算出の注目度): 40.78425934640374
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This survey article is concerned with the application of lattice rules to Deep Neural Networks (DNNs), lattice rules being a family of quasi-Monte Carlo methods. They have demonstrated effectiveness in various contexts for high-dimensional integration and function approximation. They are extremely easy to implement thanks to their very simple formulation -- all that is required is a good integer generating vector of length matching the dimensionality of the problem. In recent years there has been a burst of research activities on the application and theory of DNNs. We review our recent article on using lattice rules as training points for DNNs with a smooth activation function, where we obtained explicit regularity bounds of the DNNs. By imposing restrictions on the network parameters to match the regularity features of the target function, we prove that DNNs with tailored lattice training points can achieve good theoretical generalization error bounds, with implied constants independent of the input dimension. We also demonstrate numerically that DNNs trained with our tailored regularization perform significantly better than with standard $\ell_2$ regularization.
- Abstract(参考訳): 本稿では、格子規則をDNN(Deep Neural Networks)に適用すること、および準モンテカルロ法に属する格子規則について述べる。
彼らは高次元積分と関数近似の様々な文脈において有効性を示した。
非常に単純な定式化のおかげで実装は非常に簡単であり、問題の大きさと一致する長さの優れた整数生成ベクトルが要求される。
近年,DNNの応用と理論に関する研究が盛んに行われている。
本稿では,DNNの規則をスムーズなアクティベーション関数を持つDNNのトレーニングポイントとして用いることに関する最近の論文をレビューし,DNNの明示的な規則性境界を得た。
対象関数の正則性特徴に合致するネットワークパラメータに制約を課すことにより,適応格子トレーニングポイントを持つDNNが,入力次元に依存しないインプリート定数で,良好な理論的一般化誤差境界を達成できることを証明した。
また、調整された正規化で訓練されたDNNが標準の$\ell_2$正規化よりもはるかに優れた性能を示すことを示す。
関連論文リスト
- On Generalization Bounds for Deep Compound Gaussian Neural Networks [1.4425878137951238]
Unrolled Deep Neural Network(DNN)は、標準的なDNNよりも優れた解釈性と優れた経験的パフォーマンスを提供する。
本稿では,複合ガウス事前情報に基づく非学習型DNNのクラスに対する新しい一般化誤差境界を開発する。
現実的な条件下では、最悪の場合、一般化誤差は信号次元で$mathcalO(nsqrt(n))$、ネットワークサイズで$mathcalO(($Network Size$)3/2)$である。
論文 参考訳(メタデータ) (2024-02-20T16:01:39Z) - Quantized Approximately Orthogonal Recurrent Neural Networks [6.524758376347808]
ORNNにおける重み行列の量子化を探求し、ほぼ直交RNN(QORNN)を量子化する。
本稿では,量子化学習(QAT)と計算予測を組み合わせた2つのQORNN学習手法を提案する。
最も効率的なモデルは、4ビットの量子化であっても、様々な標準ベンチマークで最先端のフル精度ORNN、LSTM、FastRNNと同様の結果が得られる。
論文 参考訳(メタデータ) (2024-02-05T09:59:57Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Learning Low Dimensional State Spaces with Overparameterized Recurrent
Neural Nets [57.06026574261203]
我々は、長期記憶をモデル化できる低次元状態空間を学習するための理論的証拠を提供する。
実験は、線形RNNと非線形RNNの両方で低次元状態空間を学習することで、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2022-10-25T14:45:15Z) - ResNorm: Tackling Long-tailed Degree Distribution Issue in Graph Neural
Networks via Normalization [80.90206641975375]
本稿では,正規化によるGNNの性能向上に焦点をあてる。
グラフ中のノード次数の長期分布を調べることにより、GNNの新しい正規化法を提案する。
ResNormの$scale$操作は、尾ノードの精度を向上させるために、ノード単位の標準偏差(NStd)分布を再設定する。
論文 参考訳(メタデータ) (2022-06-16T13:49:09Z) - Theoretical guarantees for the advantage of GNNs over NNs in generalizing bandlimited functions on Euclidean cubes [5.618969269882913]
グラフニューラルネットワーク(GNN)は、さまざまなアプリケーションにまたがってグラフベースの情報を処理するための強力なリソースとして登場した。
本研究では,これらの分類におけるGNNの習熟度について検討する。
以上の結果から,GNNを用いた帯域制限関数を$varepsilon$-errorマージン内で一般化する上で,高い効率性を示した。
論文 参考訳(メタデータ) (2022-06-13T05:15:12Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Fast Axiomatic Attribution for Neural Networks [44.527672563424545]
最近のアプローチには、望ましくない機能への依存を減らすために、トレーニングプロセスにディープニューラルネットワーク(DNN)の機能帰属に関する先行が含まれている。
本稿では, 1 つの前方/後方パスのみを用いて, 公理的特徴属性を計算できる DNN の高効率な公理的帰属性について考察する。
様々な実験により、$mathcalX$-DNNsの利点が示され、通常のDNNに対する最先端の一般的な帰属法を破り、帰属前の訓練に役立てられる。
論文 参考訳(メタデータ) (2021-11-15T10:51:01Z) - On Connections between Regularizations for Improving DNN Robustness [67.28077776415724]
本稿では,ディープニューラルネットワーク(DNN)の対角的ロバスト性を改善するために最近提案された正規化条件を解析する。
入力勾配正則化,ジャコビアン正則化,曲率正則化,クロスリプシッツ関数など,いくつかの有効な方法間の接続性について検討する。
論文 参考訳(メタデータ) (2020-07-04T23:43:32Z) - Optimization and Generalization Analysis of Transduction through
Gradient Boosting and Application to Multi-scale Graph Neural Networks [60.22494363676747]
現在のグラフニューラルネットワーク(GNN)は、オーバースムーシング(over-smoothing)と呼ばれる問題のため、自分自身を深くするのは難しいことが知られている。
マルチスケールGNNは、オーバースムーシング問題を緩和するための有望なアプローチである。
マルチスケールGNNを含むトランスダクティブ学習アルゴリズムの最適化と一般化を保証する。
論文 参考訳(メタデータ) (2020-06-15T17:06:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。