論文の概要: The Variability of Model Specification
- arxiv url: http://arxiv.org/abs/2110.02490v1
- Date: Wed, 6 Oct 2021 03:59:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-07 14:09:09.931694
- Title: The Variability of Model Specification
- Title(参考訳): モデル仕様の可変性
- Authors: Joseph R. Barr, Peter Shaw, Marcus Sobel
- Abstract要約: 良いモデルはバイアスと分散の妥協である、という公理と見なされている。
本稿では,一般化線形モデル,コックス比例ハザードモデル,ARMAなどの回帰モデルフレームワークについて検討し,モデルの誤特定が分散に与える影響を考察する。
- 参考スコア(独自算出の注目度): 2.4939887831898457
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: It's regarded as an axiom that a good model is one that compromises between
bias and variance. The bias is measured in training cost, while the variance of
a (say, regression) model is measure by the cost associated with a validation
set. If reducing bias is the goal, one will strive to fetch as complex a model
as necessary, but complexity is invariably coupled with variance: greater
complexity implies greater variance. In practice, driving training cost to near
zero does not pose a fundamental problem; in fact, a sufficiently complex
decision tree is perfectly capable of driving training cost to zero; however,
the problem is often with controlling the model's variance. We investigate
various regression model frameworks, including generalized linear models, Cox
proportional hazard models, ARMA, and illustrate how misspecifying a model
affects the variance.
- Abstract(参考訳): 良いモデルはバイアスと分散を妥協するものであるという公理と見なされている。
バイアスはトレーニングコストで測定され、(例えば、回帰)モデルの分散は検証セットに関連するコストによって測定される。
バイアスを減らすことが目標なら、必要に応じてモデルの複雑さを取り出すように努力するが、複雑さと分散は必然的に結合される。
実際には、訓練コストをゼロに近い値まで押し上げることは基本的な問題ではない; 実際、十分に複雑な決定木はトレーニングコストをゼロまで押し上げることができる。
本稿では,一般化線形モデル,コックス比例ハザードモデル,ARMAなどの回帰モデルフレームワークについて検討し,モデルの誤特定が分散に与える影響を考察する。
関連論文リスト
- Tradeoff of generalization error in unsupervised learning [0.6554326244334868]
一般に、教師なしの学習は、一般化誤差(GE)の2成分のトレードオフを示す
より複雑なモデルを使用することで、データエラーのコストでモデルエラーを減らすことができる。
我々の結果は、学習すべきデータがより複雑である場合、最適モデルはより複雑である傾向があることを示唆している。
論文 参考訳(メタデータ) (2023-03-10T05:50:17Z) - On the Strong Correlation Between Model Invariance and Generalization [54.812786542023325]
一般化は、見えないデータを分類するモデルの能力をキャプチャする。
不変性はデータの変換におけるモデル予測の一貫性を測定する。
データセット中心の視点から、あるモデルの精度と不変性は異なるテストセット上で線形に相関している。
論文 参考訳(メタデータ) (2022-07-14T17:08:25Z) - ER: Equivariance Regularizer for Knowledge Graph Completion [107.51609402963072]
我々は、新しい正規化器、すなわち等分散正規化器(ER)を提案する。
ERは、頭と尾のエンティティ間の意味的等価性を利用することで、モデルの一般化能力を高めることができる。
実験結果から,最先端関係予測法よりも明確かつ実質的な改善が示された。
論文 参考訳(メタデータ) (2022-06-24T08:18:05Z) - On the Generalization and Adaption Performance of Causal Models [99.64022680811281]
異なる因果発見は、データ生成プロセスを一連のモジュールに分解するために提案されている。
このようなモジュラニューラル因果モデルの一般化と適応性能について検討する。
我々の分析では、モジュラーニューラル因果モデルが、低データレギュレーションにおけるゼロおよび少数ショットの適応において、他のモデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-06-09T17:12:32Z) - Self-Damaging Contrastive Learning [92.34124578823977]
ラベルのないデータは一般に不均衡であり、長い尾の分布を示す。
本稿では,クラスを知らずに表現学習を自動的にバランスをとるための,自己学習コントラスト学習という原則的枠組みを提案する。
実験の結果,SDCLRは全体としての精度だけでなく,バランス性も著しく向上することがわかった。
論文 参考訳(メタデータ) (2021-06-06T00:04:49Z) - Understanding Double Descent Requires a Fine-Grained Bias-Variance
Decomposition [34.235007566913396]
ラベルに関連付けられた用語への分散の解釈可能で対称的な分解について述べる。
バイアスはネットワーク幅とともに単調に減少するが、分散項は非単調な振る舞いを示す。
我々はまた、著しく豊かな現象論も分析する。
論文 参考訳(メタデータ) (2020-11-04T21:04:02Z) - Generative Temporal Difference Learning for Infinite-Horizon Prediction [101.59882753763888]
我々は、無限確率的地平線を持つ環境力学の予測モデルである$gamma$-modelを導入する。
トレーニングタイムとテストタイムの複合的なエラーの間には、そのトレーニングが避けられないトレードオフを反映しているかについて議論する。
論文 参考訳(メタデータ) (2020-10-27T17:54:12Z) - Memorizing without overfitting: Bias, variance, and interpolation in
over-parameterized models [0.0]
バイアス分散トレードオフは教師あり学習における中心的な概念である。
現代のDeep Learningメソッドは、最先端のパフォーマンスを達成するために、このドグマを浮かび上がらせる。
論文 参考訳(メタデータ) (2020-10-26T22:31:04Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Rethinking Bias-Variance Trade-off for Generalization of Neural Networks [40.04927952870877]
ニューラルネットワークのバイアスとばらつきを測定することで、これに対する簡単な説明を提供する。
分散一様性は、考慮したすべてのモデルに対して頑健に起こる。
より深いモデルはバイアスを減らし、分布内および分布外データのばらつきを増加させる。
論文 参考訳(メタデータ) (2020-02-26T07:21:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。