論文の概要: Understanding Overparametrization in Survival Models through Interpolation
- arxiv url: http://arxiv.org/abs/2512.12463v2
- Date: Wed, 17 Dec 2025 19:12:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 14:03:03.223115
- Title: Understanding Overparametrization in Survival Models through Interpolation
- Title(参考訳): 補間による生存モデルにおける過度パラメトリゼーションの理解
- Authors: Yin Liu, Jianwen Cai, Didong Li,
- Abstract要約: 機械学習の最近の進歩は、より複雑なパターンであるtextitdouble-descent を明らかにし、テスト損失は閾値付近でピークに達した後、モデル容量が増加し続けるにつれて再び減少する。
本研究では,DeepSurv,PC-Hazard,Nnet-Survival,N-MTLRの4つの生存モデルにおける過度パラメータ化について検討した。
- 参考スコア(独自算出の注目度): 14.444096460952961
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Classical statistical learning theory predicts a U-shaped relationship between test loss and model capacity, driven by the bias-variance trade-off. Recent advances in modern machine learning have revealed a more complex pattern, \textit{double-descent}, in which test loss, after peaking near the interpolation threshold, decreases again as model capacity continues to grow. While this behavior has been extensively analyzed in regression and classification, its manifestation in survival analysis remains unexplored. This study investigates overparametrization in four representative survival models: DeepSurv, PC-Hazard, Nnet-Survival, and N-MTLR. We rigorously define \textit{interpolation} and \textit{finite-norm interpolation}, two key characteristics of loss-based models to understand \textit{double-descent}. We then show the existence (or absence) of \textit{(finite-norm) interpolation} of all four models. Our findings clarify how likelihood-based losses and model implementation jointly determine the feasibility of \textit{interpolation} and show that overparametrization should not be regarded as benign for survival models. All theoretical results are supported by numerical experiments that highlight the distinct generalization behaviors of survival models.
- Abstract(参考訳): 古典統計学習理論は、偏差トレードオフによって駆動されるテスト損失とモデルキャパシティの間のU字型関係を予測する。
最近の機械学習の進歩は、補間しきい値付近でピークに達した後、モデルキャパシティが成長を続けるにつれて、テスト損失が再び減少する、より複雑なパターンである「textit{double-descent}」を明らかにしている。
この行動は、回帰と分類において広範囲に分析されてきたが、生存分析におけるその発現は未解明のままである。
本研究では,DeepSurv,PC-Hazard,Nnet-Survival,N-MTLRの4つの生存モデルにおける過度パラメータ化について検討した。
我々は、損失ベースモデルの2つの重要な特徴である、‘textit{interpolation} と \textit{finite-norm interpolation} を厳格に定義し、‘textit{double-descent} を理解する。
次に、すべての4つのモデルの \textit{(finite-norm) Interpolation} の存在(または欠如)を示す。
本研究は, 確率に基づく損失とモデル実装が, textit{interpolation} の有効性を共同で決定し, オーバーパラメトリゼーションを生存モデルの良さと見なすべきでないことを示すものである。
全ての理論的結果は、生存モデルの明確な一般化挙動を強調する数値実験によって支持される。
関連論文リスト
- Evaluating Double Descent in Machine Learning: Insights from Tree-Based Models Applied to a Genomic Prediction Task [0.0]
最近の研究は、いわゆる二重降下現象のしきい値上昇を超えて、テストエラーの第2降下の概念を導入している。
二重降着は、2つの軸をまたいだ複雑さが共同でスケールする場合にのみ、一貫して現れることを示す。
本研究は,一般化行動の解析において,モデル複雑性を多次元構造として扱うことの重要性を強調した。
論文 参考訳(メタデータ) (2025-09-22T16:41:31Z) - The Double Descent Behavior in Two Layer Neural Network for Binary Classification [46.3107850275261]
最近の研究では、二重降下現象と呼ばれるモデルテスト誤差に関する驚くべき概念が観察されている。
本研究の目的は,モデルサイズの異なるモデルテスト誤差の二重降下挙動の背後にある数学的理論を観察し,検討することである。
論文 参考訳(メタデータ) (2025-04-27T20:29:24Z) - Multi-Level Collaboration in Model Merging [56.31088116526825]
本稿では,モデルマージとモデルアンサンブルの本質的な関係について考察する。
これまでの制限が満たされていない場合でも、モデルのマージによって、アンサンブルと同じような、ほぼ同一かつ優れたパフォーマンスを達成する方法がまだ存在することが分かっています。
論文 参考訳(メタデータ) (2025-03-03T07:45:04Z) - Beyond DAGs: A Latent Partial Causal Model for Multimodal Learning [80.44084021062105]
本稿では,非方向エッジで連結された2つの潜在結合変数を特徴とする,多モーダルデータに対する新しい潜在部分因果モデルを提案する。
特定の統計的仮定の下では、多モーダル・コントラッシブ・ラーニングによって学習された表現が、自明な変換までの潜在結合変数に対応することを示す。
事前トレーニングされたCLIPモデルの実験は、非絡み合った表現を具現化し、数ショットの学習を可能にし、さまざまな現実世界のデータセットにわたるドメインの一般化を改善する。
論文 参考訳(メタデータ) (2024-02-09T07:18:06Z) - The Surprising Harmfulness of Benign Overfitting for Adversarial
Robustness [13.120373493503772]
根拠的真理そのものが敵の例に対して堅牢であるとしても、標準のアウト・オブ・サンプルのリスク目標の観点から見れば、明らかに過適合なモデルは良性である、という驚くべき結果が証明されます。
我々の発見は、実際に観察されたパズリング現象に関する理論的洞察を与え、真の標的関数(例えば、人間)は副次的攻撃に対して堅牢であり、一方、当初過適合のニューラルネットワークは、堅牢でないモデルに導かれる。
論文 参考訳(メタデータ) (2024-01-19T15:40:46Z) - Structured Radial Basis Function Network: Modelling Diversity for
Multiple Hypotheses Prediction [51.82628081279621]
多重モード回帰は非定常過程の予測や分布の複雑な混合において重要である。
構造的放射基底関数ネットワークは回帰問題に対する複数の仮説予測器のアンサンブルとして提示される。
この構造モデルにより, このテッセルレーションを効率よく補間し, 複数の仮説対象分布を近似することが可能であることが証明された。
論文 参考訳(メタデータ) (2023-09-02T01:27:53Z) - Monotonicity and Double Descent in Uncertainty Estimation with Gaussian
Processes [52.92110730286403]
限界確率はクロスバリデーションの指標を思い起こさせるべきであり、どちらもより大きな入力次元で劣化すべきである、と一般的に信じられている。
我々は,ハイパーパラメータをチューニングすることにより,入力次元と単調に改善できることを証明した。
また、クロスバリデーションの指標は、二重降下の特徴である質的に異なる挙動を示すことも証明した。
論文 参考訳(メタデータ) (2022-10-14T08:09:33Z) - Multi-scale Feature Learning Dynamics: Insights for Double Descent [71.91871020059857]
一般化誤差の「二重降下」現象について検討する。
二重降下は、異なるスケールで学習される異なる特徴に起因する可能性がある。
論文 参考訳(メタデータ) (2021-12-06T18:17:08Z) - Estimation of Bivariate Structural Causal Models by Variational Gaussian
Process Regression Under Likelihoods Parametrised by Normalising Flows [74.85071867225533]
因果機構は構造因果モデルによって記述できる。
最先端の人工知能の大きな欠点の1つは、説明責任の欠如である。
論文 参考訳(メタデータ) (2021-09-06T14:52:58Z) - The Predictive Normalized Maximum Likelihood for Over-parameterized
Linear Regression with Norm Constraint: Regret and Double Descent [12.929639356256928]
現代の機械学習モデルは、予測規則の複雑さとその一般化能力の間のトレードオフに従わないことを示す。
最近提案された予測正規化最大値 (pNML) は、個々のデータに対するmin-max後悔解である。
我々は,pNML後悔を合成データ上でのポイントワイド学習可能性尺度として使用し,二重発生現象の予測に成功していることを示す。
論文 参考訳(メタデータ) (2021-02-14T15:49:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。