論文の概要: Koopman-Based Bound for Generalization: New Aspect of Neural Networks
Regarding Nonlinear Noise Filtering
- arxiv url: http://arxiv.org/abs/2302.05825v1
- Date: Sun, 12 Feb 2023 00:39:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-14 18:26:37.601739
- Title: Koopman-Based Bound for Generalization: New Aspect of Neural Networks
Regarding Nonlinear Noise Filtering
- Title(参考訳): koopman-based bound for generalization: 非線形ノイズフィルタリングに関するニューラルネットの新しい側面
- Authors: Yuka Hashimoto, Sho Sonoda, Isao Ishikawa, Atsushi Nitanda, Taiji
Suzuki
- Abstract要約: クープマン演算子を用いたニューラルネットワークの一般化のための新しいバウンダリを提案する。
ネットワークの最終的な非線形変換の役割に焦点をあてる。
- 参考スコア(独自算出の注目度): 43.862703537119096
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a new bound for generalization of neural networks using Koopman
operators. Unlike most of the existing works, we focus on the role of the final
nonlinear transformation of the networks. Our bound is described by the
reciprocal of the determinant of the weight matrices and is tighter than
existing norm-based bounds when the weight matrices do not have small singular
values. According to existing theories about the low-rankness of the weight
matrices, it may be counter-intuitive that we focus on the case where singular
values of weight matrices are not small. However, motivated by the final
nonlinear transformation, we can see that our result sheds light on a new
perspective regarding a noise filtering property of neural networks. Since our
bound comes from Koopman operators, this work also provides a connection
between operator-theoretic analysis and generalization of neural networks.
Numerical results support the validity of our theoretical results.
- Abstract(参考訳): クープマン演算子を用いたニューラルネットワークの一般化のための新しい境界を提案する。
既存の作品と異なり、ネットワークの最終的な非線形変換の役割に焦点を当てている。
この境界は、重み行列の行列式の逆数によって記述され、重み行列が小さい特異値を持たないとき、既存のノルムに基づく境界よりもタイトである。
重み行列の低ランク性に関する既存の理論によれば、重み行列の特異値が小さくない場合に焦点を合わせることは直観に反するかもしれない。
しかし、最終的な非線形変換に動機づけられた結果から、ニューラルネットワークのノイズフィルタリング特性に関する新たな視点に光を当てることができた。
我々の境界はkoopman演算子から来ているので、この研究は演算子理論解析とニューラルネットワークの一般化の間の接続も提供する。
数値結果は我々の理論結果の妥当性を支持する。
関連論文リスト
- Optimization and Generalization Guarantees for Weight Normalization [19.965963460750206]
我々は、Deep WeightNormモデルの最適化と一般化の双方について、最初の理論的特徴付けを提供する。
本稿では,WeightNormネットワークのトレーニングに正規化項などの理論的関心が関係していることを示す実験結果を示す。
論文 参考訳(メタデータ) (2024-09-13T15:55:05Z) - Norm-based Generalization Bounds for Compositionally Sparse Neural
Networks [11.987589603961622]
畳み込みニューラルネットワークを含む多層スパースReLUニューラルネットワークに対する一般化境界を証明した。
これらの結果から, 深いニューラルネットワークの成功には, 対象関数の組成空間が重要であることが示唆された。
論文 参考訳(メタデータ) (2023-01-28T00:06:22Z) - Neural Networks with Sparse Activation Induced by Large Bias: Tighter Analysis with Bias-Generalized NTK [86.45209429863858]
ニューラル・タンジェント・カーネル(NTK)における一層ReLUネットワークのトレーニングについて検討した。
我々は、ニューラルネットワークが、テクティトビア一般化NTKと呼ばれる異なる制限カーネルを持っていることを示した。
ニューラルネットの様々な特性をこの新しいカーネルで研究する。
論文 参考訳(メタデータ) (2023-01-01T02:11:39Z) - Deep neural networks with dependent weights: Gaussian Process mixture
limit, heavy tails, sparsity and compressibility [18.531464406721412]
本稿では,重みに依存するディープフィードフォワードニューラルネットワークの無限幅限界について検討する。
ネットワークの各隠れノードは、そのノードの出力重みの分散を制御する非負のランダム変数が割り当てられる。
論文 参考訳(メタデータ) (2022-05-17T09:14:32Z) - The Sample Complexity of One-Hidden-Layer Neural Networks [57.6421258363243]
本研究では,スカラー値を持つ一層ネットワークのクラスとユークリッドノルムで有界な入力について検討する。
隠蔽層重み行列のスペクトルノルムの制御は、一様収束を保証するには不十分であることを示す。
スペクトルノルム制御が十分であることを示す2つの重要な設定を解析する。
論文 参考訳(メタデータ) (2022-02-13T07:12:02Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - Compressing Heavy-Tailed Weight Matrices for Non-Vacuous Generalization
Bounds [0.0]
arXiv:1802.05296の圧縮フレームワークを用いて、重テール分布行列要素を持つ行列を圧縮可能であることを示す。
ベクトル上のこれらの行列の作用について論じ、圧縮と弾力的な分類との関係について分析する。
論文 参考訳(メタデータ) (2021-05-23T21:36:33Z) - Explicit regularization and implicit bias in deep network classifiers
trained with the square loss [2.8935588665357077]
平方損失で訓練された深いReLUネットワークは分類の仕事でよく機能するために観察されました。
正規化法を重み決定法とともに用いる場合,絶対最小ノルムの解への収束が期待できることを示す。
論文 参考訳(メタデータ) (2020-12-31T21:07:56Z) - On Lipschitz Regularization of Convolutional Layers using Toeplitz
Matrix Theory [77.18089185140767]
リプシッツ正則性は現代のディープラーニングの重要な性質として確立されている。
ニューラルネットワークのリプシッツ定数の正確な値を計算することはNPハードであることが知られている。
より厳密で計算が容易な畳み込み層に対する新しい上限を導入する。
論文 参考訳(メタデータ) (2020-06-15T13:23:34Z) - Distance-Based Regularisation of Deep Networks for Fine-Tuning [116.71288796019809]
我々は,仮説クラスを,初期訓練前の重みを中心にした小さな球面に制約するアルゴリズムを開発した。
実験的な評価は、我々のアルゴリズムがうまく機能していることを示し、理論的な結果を裏付けるものである。
論文 参考訳(メタデータ) (2020-02-19T16:00:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。