論文の概要: Generalization and Estimation Error Bounds for Model-based Neural
Networks
- arxiv url: http://arxiv.org/abs/2304.09802v1
- Date: Wed, 19 Apr 2023 16:39:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-20 13:36:37.632354
- Title: Generalization and Estimation Error Bounds for Model-based Neural
Networks
- Title(参考訳): モデルベースニューラルネットワークの一般化と推定誤差境界
- Authors: Avner Shultzman, Eyar Azar, Miguel R. D. Rodrigues, Yonina C. Eldar
- Abstract要約: スパースリカバリのためのモデルベースネットワークの一般化能力は、通常のReLUネットワークよりも優れていることを示す。
我々は,高一般化を保証したモデルベースネットワークの構築を可能にする実用的な設計規則を導出する。
- 参考スコア(独自算出の注目度): 78.88759757988761
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model-based neural networks provide unparalleled performance for various
tasks, such as sparse coding and compressed sensing problems. Due to the strong
connection with the sensing model, these networks are interpretable and inherit
prior structure of the problem. In practice, model-based neural networks
exhibit higher generalization capability compared to ReLU neural networks.
However, this phenomenon was not addressed theoretically. Here, we leverage
complexity measures including the global and local Rademacher complexities, in
order to provide upper bounds on the generalization and estimation errors of
model-based networks. We show that the generalization abilities of model-based
networks for sparse recovery outperform those of regular ReLU networks, and
derive practical design rules that allow to construct model-based networks with
guaranteed high generalization. We demonstrate through a series of experiments
that our theoretical insights shed light on a few behaviours experienced in
practice, including the fact that ISTA and ADMM networks exhibit higher
generalization abilities (especially for small number of training samples),
compared to ReLU networks.
- Abstract(参考訳): モデルベースのニューラルネットワークは、スパースコーディングや圧縮センシング問題など、さまざまなタスクに対して並列性のないパフォーマンスを提供する。
センシングモデルとの強いつながりのため、これらのネットワークは解釈可能であり、問題の事前構造を継承する。
実際に、モデルベースニューラルネットワークは、ReLUニューラルネットワークよりも高い一般化能力を示す。
しかし、この現象は理論的には解決されなかった。
本稿では,モデルベースネットワークの一般化と推定誤差の上限を提供するため,グローバルおよびローカルラデマッハの複雑度を含む複雑性尺度を活用する。
モデルベースネットワークのsparse recoveryの一般化能力は,通常のreluネットワークよりも優れており,高一般化が保証されたモデルベースネットワークの構築を可能にする実用的な設計ルールを導出している。
我々は、ISTAとADMMネットワークがReLUネットワークよりも高い一般化能力(特に少数のトレーニングサンプル)を示すという事実を含む、実際に経験したいくつかの行動に、我々の理論的洞察が光を当てていることを一連の実験を通して実証した。
関連論文リスト
- Feature Contamination: Neural Networks Learn Uncorrelated Features and Fail to Generalize [5.642322814965062]
分散シフトの下で一般化される学習表現は、堅牢な機械学習モデルを構築する上で重要である。
ニューラルネットワークを教師ネットワークから得られる表現に明示的に適合させることさえ、学生ネットワークの一般化には不十分であることを示す。
論文 参考訳(メタデータ) (2024-06-05T15:04:27Z) - A method for quantifying the generalization capabilities of generative models for solving Ising models [5.699467840225041]
我々は、ハミング距離正規化器を用いて、VANと組み合わせた様々なネットワークアーキテクチャの一般化能力を定量化する。
フィードフォワードニューラルネットワーク,リカレントニューラルネットワーク,グラフニューラルネットワークなど,VANと組み合わせたネットワークアーキテクチャの数値実験を行う。
本手法は,大規模Isingモデルの解法において,最適なネットワークアーキテクチャを探索するニューラルネットワーク探索の分野を支援する上で,非常に重要である。
論文 参考訳(メタデータ) (2024-05-06T12:58:48Z) - From NeurODEs to AutoencODEs: a mean-field control framework for
width-varying Neural Networks [68.8204255655161]
本稿では,動的に駆動する制御フィールドをベースとした,AutoencODEと呼ばれる新しいタイプの連続時間制御システムを提案する。
損失関数が局所凸な領域では,多くのアーキテクチャが復元可能であることを示す。
論文 参考訳(メタデータ) (2023-07-05T13:26:17Z) - Sparsity-aware generalization theory for deep neural networks [12.525959293825318]
本稿では、ディープフィードフォワードReLUネットワークの一般化を解析するための新しいアプローチを提案する。
空間性と一般化の基本的なトレードオフを示す。
論文 参考訳(メタデータ) (2023-07-01T20:59:05Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - With Greater Distance Comes Worse Performance: On the Perspective of
Layer Utilization and Model Generalization [3.6321778403619285]
ディープニューラルネットワークの一般化は、マシンラーニングにおける主要なオープンな問題の1つだ。
初期のレイヤは一般的に、トレーニングデータとテストデータの両方のパフォーマンスに関する表現を学びます。
より深いレイヤは、トレーニングのリスクを最小限に抑え、テストや不正なラベル付けされたデータとうまく連携できない。
論文 参考訳(メタデータ) (2022-01-28T05:26:32Z) - Formalizing Generalization and Robustness of Neural Networks to Weight
Perturbations [58.731070632586594]
非負のモノトーンアクティベーション機能を備えたフィードフォワードニューラルネットワークの重量変動に対する最初の形式解析を提供します。
また,重みの摂動に対して一般化し頑健なニューラルネットワークを訓練するための新しい理論駆動損失関数を設計した。
論文 参考訳(メタデータ) (2021-03-03T06:17:03Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Compressive Sensing and Neural Networks from a Statistical Learning
Perspective [4.561032960211816]
線形測定の少ないスパース再構成に適したニューラルネットワークのクラスに対する一般化誤差解析を提案する。
現実的な条件下では、一般化誤差は層数で対数的にしかスケールせず、測定数ではほとんど線形である。
論文 参考訳(メタデータ) (2020-10-29T15:05:43Z) - Understanding Generalization in Deep Learning via Tensor Methods [53.808840694241]
圧縮の観点から,ネットワークアーキテクチャと一般化可能性の関係について理解を深める。
本稿では、ニューラルネットワークの圧縮性と一般化性を強く特徴付ける、直感的で、データ依存的で、測定が容易な一連の特性を提案する。
論文 参考訳(メタデータ) (2020-01-14T22:26:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。