論文の概要: Scale-Insensitive Neural Network Significance Tests
- arxiv url: http://arxiv.org/abs/2501.15753v1
- Date: Mon, 27 Jan 2025 03:45:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-28 13:58:13.406201
- Title: Scale-Insensitive Neural Network Significance Tests
- Title(参考訳): スケールインセンティブニューラルネットワークの意義試験
- Authors: Hasan Fallahgoul,
- Abstract要約: 本稿では、ニューラルネットワークの重要度テストのためのスケールインセンティブなフレームワークを開発する。
我々は、計量エントロピー計算をラデマッハ複雑性境界に置き換える。
対象関数上の正則性条件を弱め、ソボレフ空間メンバシップのみを必要とする。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This paper develops a scale-insensitive framework for neural network significance testing, substantially generalizing existing approaches through three key innovations. First, we replace metric entropy calculations with Rademacher complexity bounds, enabling the analysis of neural networks without requiring bounded weights or specific architectural constraints. Second, we weaken the regularity conditions on the target function to require only Sobolev space membership $H^s([-1,1]^d)$ with $s > d/2$, significantly relaxing previous smoothness assumptions while maintaining optimal approximation rates. Third, we introduce a modified sieve space construction based on moment bounds rather than weight constraints, providing a more natural theoretical framework for modern deep learning practices. Our approach achieves these generalizations while preserving optimal convergence rates and establishing valid asymptotic distributions for test statistics. The technical foundation combines localization theory, sharp concentration inequalities, and scale-insensitive complexity measures to handle unbounded weights and general Lipschitz activation functions. This framework better aligns theoretical guarantees with contemporary deep learning practice while maintaining mathematical rigor.
- Abstract(参考訳): 本稿では,3つの重要な革新を通じて既存のアプローチを大幅に一般化した,ニューラルネットワークの重要度テストのためのスケールインセンティブなフレームワークを開発する。
まず、計量エントロピー計算をRademacher複雑性境界に置き換え、境界重みや特定のアーキテクチャ制約を必要とせずにニューラルネットワークの分析を可能にする。
第二に、ターゲット関数上の正則性条件を弱化して、ソボレフ空間メンバシップ$H^s([-1,1]^d)$と$s > d/2$のみを要求し、最適近似率を維持しながら、過去の滑らかさ仮定を著しく緩和する。
第三に、重み制約ではなくモーメント境界に基づく修正されたシーブ空間構成を導入し、現代のディープラーニング実践のためのより自然な理論的枠組みを提供する。
提案手法は, 最適収束率を保ちながらこれらの一般化を実現し, 試験統計学に有効な漸近分布を確立する。
技術的な基礎は、局所化理論、急激な濃度の不等式、および非有界ウェイトと一般リプシッツ活性化関数を扱うスケール非感受性の複雑さの尺度を組み合わせる。
この枠組みは、数学的厳密さを維持しながら、理論上の保証を現代のディープラーニングの実践とよく一致させる。
関連論文リスト
- Generalization and Risk Bounds for Recurrent Neural Networks [3.0638061480679912]
我々は,バニラRNNに対する新しい一般化誤差を確立する。
我々は、様々な損失関数に適用可能なRademacher複雑性を計算する統一的なフレームワークを提供する。
論文 参考訳(メタデータ) (2024-11-05T03:49:06Z) - The Boundaries of Verifiable Accuracy, Robustness, and Generalisation in Deep Learning [71.14237199051276]
経験的リスクを最小限に抑えるため,古典的な分布に依存しないフレームワークとアルゴリズムを検討する。
理想的な安定かつ正確なニューラルネットワークの計算と検証が極めて難しいタスク群が存在することを示す。
論文 参考訳(メタデータ) (2023-09-13T16:33:27Z) - No Wrong Turns: The Simple Geometry Of Neural Networks Optimization
Paths [12.068608358926317]
1次最適化アルゴリズムは、ディープニューラルネットワークにおいて好ましいミニマを効率的に見つけることが知られている。
2つの鍵経路における標本最適化量の基本的な幾何学的性質に焦点をあてる。
以上の結果から,最適化トラジェクトリは大きな障害に遭遇しないだけでなく,ほとんどのトレーニングにおいて安定なダイナミクスも維持できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-06-20T22:10:40Z) - Structured Optimal Variational Inference for Dynamic Latent Space Models [16.531262817315696]
動的ネットワークの潜在空間モデルについて検討し、その目的は、ペアの内積と潜在位置のインターセプトを推定することである。
後部推論と計算スケーラビリティのバランスをとるために、構造的平均場変動推論フレームワークを検討する。
論文 参考訳(メタデータ) (2022-09-29T22:10:42Z) - Robust Learning of Parsimonious Deep Neural Networks [0.0]
本稿では,ニューラルネットワークにおける無関係構造を識別・排除できる同時学習および刈り取りアルゴリズムを提案する。
最適選択に欠かせないパラメータに対して,新しい超優先度分布を導出する。
我々は,提案アルゴリズムをMNISTデータセット上で評価し,完全連結型および畳み込み型LeNetアーキテクチャを用いた。
論文 参考訳(メタデータ) (2022-05-10T03:38:55Z) - Robust Implicit Networks via Non-Euclidean Contractions [63.91638306025768]
暗黙のニューラルネットワークは、精度の向上とメモリ消費の大幅な削減を示す。
彼らは不利な姿勢と収束の不安定さに悩まされる。
本論文は,ニューラルネットワークを高機能かつ頑健に設計するための新しい枠組みを提供する。
論文 参考訳(メタデータ) (2021-06-06T18:05:02Z) - A Convergence Theory Towards Practical Over-parameterized Deep Neural
Networks [56.084798078072396]
ネットワーク幅と収束時間の両方で既知の理論境界を大幅に改善することにより、理論と実践のギャップを埋める一歩を踏み出します。
本研究では, サンプルサイズが2次幅で, 両者の時間対数で線形なネットワークに対して, 地球最小値への収束が保証されていることを示す。
私たちの分析と収束境界は、いつでも合理的なサイズの同等のRELUネットワークに変換できる固定アクティベーションパターンを備えたサロゲートネットワークの構築によって導出されます。
論文 参考訳(メタデータ) (2021-01-12T00:40:45Z) - Efficient Methods for Structured Nonconvex-Nonconcave Min-Max
Optimization [98.0595480384208]
定常点に収束する一般化外空間を提案する。
このアルゴリズムは一般の$p$ノルド空間だけでなく、一般の$p$次元ベクトル空間にも適用される。
論文 参考訳(メタデータ) (2020-10-31T21:35:42Z) - Distance-Based Regularisation of Deep Networks for Fine-Tuning [116.71288796019809]
我々は,仮説クラスを,初期訓練前の重みを中心にした小さな球面に制約するアルゴリズムを開発した。
実験的な評価は、我々のアルゴリズムがうまく機能していることを示し、理論的な結果を裏付けるものである。
論文 参考訳(メタデータ) (2020-02-19T16:00:47Z) - Understanding Generalization in Deep Learning via Tensor Methods [53.808840694241]
圧縮の観点から,ネットワークアーキテクチャと一般化可能性の関係について理解を深める。
本稿では、ニューラルネットワークの圧縮性と一般化性を強く特徴付ける、直感的で、データ依存的で、測定が容易な一連の特性を提案する。
論文 参考訳(メタデータ) (2020-01-14T22:26:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。