論文の概要: Double Descent and Overparameterization in Particle Physics Data
- arxiv url: http://arxiv.org/abs/2509.01397v1
- Date: Mon, 01 Sep 2025 11:45:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.670412
- Title: Double Descent and Overparameterization in Particle Physics Data
- Title(参考訳): 粒子物理データにおける二重明度と過パラメータ化
- Authors: Matthias Vigl, Lukas Heinrich,
- Abstract要約: 本研究では,古典的バイアス分散トレードオフモデルと比較して,エンファン補間しきい値を容易に越える能力を持つモデルでは,一般化誤差が向上することを示す。
粒子物理学データで初めてこの挙動を実証し、いつ、どこで二重降下が起こるのかを探索する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Recently, the benefit of heavily overparameterized models has been observed in machine learning tasks: models with enough capacity to easily cross the \emph{interpolation threshold} improve in generalization error compared to the classical bias-variance tradeoff regime. We demonstrate this behavior for the first time in particle physics data and explore when and where `double descent' appears and under which circumstances overparameterization results in a performance gain.
- Abstract(参考訳): 近年、機械学習タスクにおいて、過度に過度にパラメータ化されたモデルの利点が観測されている。
粒子物理データで初めてこの挙動を実証し, 「二重降下」 の出現時期と発生時期を考察し, 過パラメータ化が性能向上をもたらす状況について考察した。
関連論文リスト
- Parametric model reduction of mean-field and stochastic systems via higher-order action matching [1.1509084774278489]
我々は、勾配と平均場効果を特徴とする物理系の人口動態のモデルを学ぶ。
提案手法は,幅広いパラメータの集団動態を正確に予測し,最先端拡散モデルおよびフローベースモデルより優れていることを示す。
論文 参考訳(メタデータ) (2024-10-15T19:05:28Z) - Scaling and renormalization in high-dimensional regression [72.59731158970894]
リッジ回帰に関する最近の結果について統一的な視点を提示する。
我々は、物理とディープラーニングの背景を持つ読者を対象に、ランダム行列理論と自由確率の基本的なツールを使用する。
我々の結果は拡張され、初期のスケーリング法則のモデルについて統一的な視点を提供する。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - A PAC-Bayesian Perspective on the Interpolating Information Criterion [54.548058449535155]
補間系の性能に影響を及ぼす要因を特徴付ける一般モデルのクラスに対して,PAC-Bayes境界がいかに得られるかを示す。
オーバーパラメータ化モデルに対するテスト誤差が、モデルとパラメータの初期化スキームの組み合わせによって課される暗黙の正規化の品質に依存するかの定量化を行う。
論文 参考訳(メタデータ) (2023-11-13T01:48:08Z) - Designing Observables for Measurements with Deep Learning [0.12277343096128711]
機械学習を用いて,対象とする観測対象を設計することを提案する。
ニューラルネットワーク出力の展開された微分断面は、関心のパラメータに関する最も多くの情報を含んでいる。
深部散乱の包括的測定に2つの物理モデルを用いたシミュレーションでこのアイデアを実証する。
論文 参考訳(メタデータ) (2023-10-12T20:54:34Z) - Monotonicity and Double Descent in Uncertainty Estimation with Gaussian
Processes [52.92110730286403]
限界確率はクロスバリデーションの指標を思い起こさせるべきであり、どちらもより大きな入力次元で劣化すべきである、と一般的に信じられている。
我々は,ハイパーパラメータをチューニングすることにより,入力次元と単調に改善できることを証明した。
また、クロスバリデーションの指標は、二重降下の特徴である質的に異なる挙動を示すことも証明した。
論文 参考訳(メタデータ) (2022-10-14T08:09:33Z) - On the Influence of Enforcing Model Identifiability on Learning dynamics
of Gaussian Mixture Models [14.759688428864159]
特異モデルからサブモデルを抽出する手法を提案する。
本手法はトレーニング中のモデルの識別性を強制する。
この手法がディープニューラルネットワークのようなより複雑なモデルにどのように適用できるかを示す。
論文 参考訳(メタデータ) (2022-06-17T07:50:22Z) - Memorizing without overfitting: Bias, variance, and interpolation in
over-parameterized models [0.0]
バイアス分散トレードオフは教師あり学習における中心的な概念である。
現代のDeep Learningメソッドは、最先端のパフォーマンスを達成するために、このドグマを浮かび上がらせる。
論文 参考訳(メタデータ) (2020-10-26T22:31:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。