論文の概要: Measuring Neural Network Complexity via Effective Degrees of Freedom
- arxiv url: http://arxiv.org/abs/2602.13442v1
- Date: Fri, 13 Feb 2026 20:37:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.034009
- Title: Measuring Neural Network Complexity via Effective Degrees of Freedom
- Title(参考訳): 有効自由度を用いたニューラルネットワークの複雑度測定
- Authors: Jia Zhou, Douglas Landsittel,
- Abstract要約: フィードフォワードニューラルネットワーク(FFNN)の複雑さの定量化は、非線形で階層的な構造と多くのパラメータのため、依然として困難である。
連立結果を持つFFNNのモデル複雑性を測定するために一般化自由度を適用した。
- 参考スコア(独自算出の注目度): 0.5210689364246219
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantifying the complexity of feed-forward neural networks (FFNNs) remains challenging due to their nonlinear, hierarchical structure and numerous parameters. We apply generalized degrees of freedom (GDF) to measure model complexity in FFNNs with binary outcomes, adapting the algorithm for discrete responses. We compare GDF with both the effective number of parameters derived via log-likelihood cross-validation and the null degrees of freedom of Landsittel et al. Through simulation studies and a real data analysis, we demonstrate that GDF provides a robust assessment of model complexity for neural network models, as it depends only on the sensitivity of fitted values to perturbations in the observed responses rather than on assumptions about the likelihood. In contrast, cross-validation-based estimates of model complexity and the null degrees of freedom rely on the correctness of the assumed likelihood and may exhibit substantial variability. We find that GDF, cross-validation-based measures, and null degrees of freedom yield similar assessments of model complexity only when the fitted model adequately represents the data-generating mechanism. These findings highlight GDF as a stable and broadly applicable measure of model complexity for neural networks in statistical modeling.
- Abstract(参考訳): フィードフォワードニューラルネットワーク(FFNN)の複雑さの定量化は、非線形で階層的な構造と多くのパラメータのため、依然として困難である。
FFNNのモデル複雑性を二値化して測定するために一般化自由度 (GDF) を適用し, 離散応答にアルゴリズムを適用する。
シミュレーション研究と実データ分析により,GDFがニューラルネットワークモデルに対してモデル複雑性の頑健な評価を提供することを示した。
対照的に、モデルの複雑さと自由度に関するクロスバリデーションに基づく推定は、仮定された仮定の正しさに依存しており、かなりの変数を示す可能性がある。
GDF, クロスバリデーションに基づく測度, 自由度は, データ生成機構を適切に表現した場合にのみ, モデル複雑性の同様の評価が得られることがわかった。
これらの結果から,GAFは統計的モデリングにおけるニューラルネットワークのモデル複雑性の安定かつ広く適用可能な尺度であることが示された。
関連論文リスト
- On the Identifiability of Regime-Switching Models with Multi-Lag Dependencies [42.274922469778545]
マルチラグレジームスイッチングモデル(RSM)の一般的な理論的枠組みを開発する。
非線形ガウス条件下では,レギュラー数とマルチラグ遷移の双方の識別可能性を示す。
我々の結果は、アーキテクチャとノイズの仮定を通して完全に教師なしの設定を保ちます。
論文 参考訳(メタデータ) (2026-01-06T15:12:39Z) - InVAErt networks for amortized inference and identifiability analysis of lumped parameter hemodynamic models [0.0]
本研究では、ニューラルネットワークをベースとしたデータ駆動型フレームワークであるinVAErtネットワークを用いて、剛体力学系のディジタル双対解析を強化する。
InVAErtネットワークの柔軟性と有効性について,合成データから欠落成分を含む実データへの6成分ループ型パラメータ血行動態モデルの生理的逆転の文脈で示す。
論文 参考訳(メタデータ) (2024-08-15T17:07:40Z) - A Priori Uncertainty Quantification of Reacting Turbulence Closure Models using Bayesian Neural Networks [0.0]
反応流モデルにおける不確実性を捉えるためにベイズニューラルネットワークを用いる。
我々は、BNNモデルが、データ駆動クロージャモデルの不確実性の構造に関するユニークな洞察を提供することができることを示した。
このモデルの有効性は,様々な火炎条件と燃料からなるデータセットに対する事前評価によって実証される。
論文 参考訳(メタデータ) (2024-02-28T22:19:55Z) - Equivariance Allows Handling Multiple Nuisance Variables When Analyzing
Pooled Neuroimaging Datasets [53.34152466646884]
本稿では,構造空間上でインスタンス化された同変表現学習における最近の結果と,因果推論における古典的結果の簡易な利用が,いかに効果的に実現されたかを示す。
いくつかの仮定の下で、我々のモデルが複数のニュアンス変数を扱えることを実証し、そうでなければサンプルの大部分を取り除く必要のあるシナリオにおいて、プールされた科学データセットの分析を可能にする。
論文 参考訳(メタデータ) (2022-03-29T04:54:06Z) - A Free Lunch with Influence Functions? Improving Neural Network
Estimates with Concepts from Semiparametric Statistics [41.99023989695363]
ニューラルネットワークや機械学習アルゴリズムの改善に使用される半パラメトリック理論の可能性を探る。
本稿では,単一アーキテクチャを用いてアンサンブルの柔軟性と多様性を求めるニューラルネットワーク手法であるMultiNetを提案する。
論文 参考訳(メタデータ) (2022-02-18T09:35:51Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - On Energy-Based Models with Overparametrized Shallow Neural Networks [44.74000986284978]
エネルギーベースモデル(EBM)は、ジェネレーションモデリングの強力なフレームワークです。
この研究では、浅いニューラルネットワークに焦点を当てます。
我々は、いわゆる「アクティブ」体制で訓練されたモデルが、関連する「怠慢」またはカーネル体制に対して統計的に有利であることを示す。
論文 参考訳(メタデータ) (2021-04-15T15:34:58Z) - Efficient Characterization of Dynamic Response Variation Using
Multi-Fidelity Data Fusion through Composite Neural Network [9.446974144044733]
構造力学解析における多レベル応答予測の機会を利用する。
得られた多レベル異種データセットを完全に活用できる複合ニューラルネットワーク融合手法を定式化する。
論文 参考訳(メタデータ) (2020-05-07T02:44:03Z) - Flexible Transmitter Network [84.90891046882213]
現在のニューラルネットワークはMPモデルに基づいて構築されており、通常はニューロンを他のニューロンから受信した信号の実際の重み付け集約上での活性化関数の実行として定式化する。
本稿では,フレキシブル・トランスミッタ(FT)モデルを提案する。
本稿では、最も一般的な完全接続型フィードフォワードアーキテクチャ上に構築された、フレキシブルトランスミッタネットワーク(FTNet)について述べる。
論文 参考訳(メタデータ) (2020-04-08T06:55:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。