論文の概要: Ledoit-Wolf linear shrinkage with unknown mean
- arxiv url: http://arxiv.org/abs/2304.07045v1
- Date: Fri, 14 Apr 2023 10:40:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-17 13:55:18.833464
- Title: Ledoit-Wolf linear shrinkage with unknown mean
- Title(参考訳): 未知平均を持つledoit-wolf線形収縮
- Authors: Benoit Oriol and Alexandre Miot
- Abstract要約: この研究は、未知の平均で大きな次元の共分散行列推定に対処する。
経験的二次共分散推定器は、寸法とサンプルの数が比例的であり無限大の傾向にあるときに失敗する。
我々は、新しい推定器を提案し、その収束をレドイトとウルフの仮定の下で証明する。
- 参考スコア(独自算出の注目度): 77.34726150561087
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work addresses large dimensional covariance matrix estimation with
unknown mean. The empirical covariance estimator fails when dimension and
number of samples are proportional and tend to infinity, settings known as
Kolmogorov asymptotics. When the mean is known, Ledoit and Wolf (2004) proposed
a linear shrinkage estimator and proved its convergence under those
asymptotics. To the best of our knowledge, no formal proof has been proposed
when the mean is unknown. To address this issue, we propose a new estimator and
prove its quadratic convergence under the Ledoit and Wolf assumptions. Finally,
we show empirically that it outperforms other standard estimators.
- Abstract(参考訳): この研究は、未知の平均で大きな次元の共分散行列推定に対処する。
経験的共分散推定器は、次元とサンプルの数が比例し、無限大になる傾向があるときに失敗する。
平均が知られているとき、Ledoit and Wolf (2004) は線形縮退推定器を提案し、それらの漸近の下でその収束を証明した。
我々の知る限りでは、平均が不明なときに正式な証明は提案されていない。
この問題に対処するため,我々は新しい推定器を提案し,その二次収束をledoit と wolf の仮定の下で証明する。
最後に、他の標準推定値よりも優れていることを示す。
関連論文リスト
- Comparison of estimation limits for quantum two-parameter estimation [1.8507567676996612]
長岡クラム-ラオ境界とルワン不確実性関係の到達可能性を比較した。
これらの2つの限界は、物理的に達成可能な精度について異なる情報を提供できることを示す。
論文 参考訳(メタデータ) (2024-07-17T10:37:08Z) - Intrinsic Bayesian Cramér-Rao Bound with an Application to Covariance Matrix Estimation [49.67011673289242]
本稿では, 推定パラメータが滑らかな多様体内にある推定問題に対して, 新たな性能境界を提案する。
これはパラメータ多様体の幾何学と推定誤差測度の本質的な概念を誘導する。
論文 参考訳(メタデータ) (2023-11-08T15:17:13Z) - A U-turn on Double Descent: Rethinking Parameter Counting in Statistical
Learning [68.76846801719095]
二重降下がいつどこで起こるのかを正確に示し、その位置が本質的に閾値 p=n に結び付けられていないことを示す。
これは二重降下と統計的直観の間の緊張を解消する。
論文 参考訳(メタデータ) (2023-10-29T12:05:39Z) - Statistical Barriers to Affine-equivariant Estimation [10.077727846124633]
本研究では,ロバスト平均推定のためのアフィン同変推定器の定量的性能について検討する。
古典的推定器は定量的に準最適であるか、あるいは量的保証が欠如していることが分かる。
我々は、下界にほぼ一致する新しいアフィン同変推定器を構築する。
論文 参考訳(メタデータ) (2023-10-16T18:42:00Z) - Bayesian Metric Learning for Uncertainty Quantification in Image
Retrieval [0.7646713951724012]
距離学習のための最初のベイズエンコーダを提案する。
ネットワーク重みに関する分布をLaplace Approximationで学習する。
我々は,Laplacian Metric Learner (LAM) がよく校正された不確かさを推定し,分布外例を確実に検出し,最先端の予測性能を得ることを示す。
論文 参考訳(メタデータ) (2023-02-02T18:59:23Z) - On Variance Estimation of Random Forests [0.0]
本稿では,不完全U-統計量に基づく不偏分散推定器を開発する。
我々は,計算コストを増大させることなく,より低いバイアスとより正確な信頼区間のカバレッジを評価できることを示した。
論文 参考訳(メタデータ) (2022-02-18T03:35:47Z) - Learning to Estimate Without Bias [57.82628598276623]
ガウスの定理は、重み付き最小二乗推定器は線形モデルにおける線形最小分散アンバイアスド推定(MVUE)であると述べている。
本稿では、バイアス制約のあるディープラーニングを用いて、この結果を非線形設定に拡張する第一歩を踏み出す。
BCEの第二の動機は、同じ未知の複数の推定値が平均化されてパフォーマンスが向上するアプリケーションにおいてである。
論文 参考訳(メタデータ) (2021-10-24T10:23:51Z) - Divergence Frontiers for Generative Models: Sample Complexity,
Quantization Level, and Frontier Integral [58.434753643798224]
多様性フロンティアは生成モデルの評価フレームワークとして提案されている。
分岐フロンティアのプラグイン推定器のサンプル複雑性の非漸近的境界を確立する。
また,スムーズな分布推定器の統計的性能を調べることにより,分散フロンティアの枠組みも強化する。
論文 参考訳(メタデータ) (2021-06-15T06:26:25Z) - Suboptimality of Constrained Least Squares and Improvements via
Non-Linear Predictors [3.5788754401889014]
有界ユークリッド球における正方形損失に対する予測問題と最良の線形予測器について検討する。
最小二乗推定器に対する$O(d/n)$過剰リスク率を保証するのに十分な分布仮定について論じる。
論文 参考訳(メタデータ) (2020-09-19T21:39:46Z) - Nonparametric Estimation of the Fisher Information and Its Applications [82.00720226775964]
本稿では,大きさn$のランダムサンプルからフィッシャー情報の位置推定の問題について考察する。
Bhattacharyaにより提案された推定器を再検討し、収束率の向上を導出する。
クリッピング推定器と呼ばれる新しい推定器を提案する。
論文 参考訳(メタデータ) (2020-05-07T17:21:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。