論文の概要: Learning to Estimate Without Bias
- arxiv url: http://arxiv.org/abs/2110.12403v3
- Date: Wed, 29 Nov 2023 10:01:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-01 01:12:58.850384
- Title: Learning to Estimate Without Bias
- Title(参考訳): バイアスのない見積もりを学ぶ
- Authors: Tzvi Diskin, Yonina C. Eldar and Ami Wiesel
- Abstract要約: ガウスの定理は、重み付き最小二乗推定器は線形モデルにおける線形最小分散アンバイアスド推定(MVUE)であると述べている。
本稿では、バイアス制約のあるディープラーニングを用いて、この結果を非線形設定に拡張する第一歩を踏み出す。
BCEの第二の動機は、同じ未知の複数の推定値が平均化されてパフォーマンスが向上するアプリケーションにおいてである。
- 参考スコア(独自算出の注目度): 57.82628598276623
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Gauss Markov theorem states that the weighted least squares estimator is
a linear minimum variance unbiased estimation (MVUE) in linear models. In this
paper, we take a first step towards extending this result to non linear
settings via deep learning with bias constraints. The classical approach to
designing non-linear MVUEs is through maximum likelihood estimation (MLE) which
often involves computationally challenging optimizations. On the other hand,
deep learning methods allow for non-linear estimators with fixed computational
complexity. Learning based estimators perform optimally on average with respect
to their training set but may suffer from significant bias in other parameters.
To avoid this, we propose to add a simple bias constraint to the loss function,
resulting in an estimator we refer to as Bias Constrained Estimator (BCE). We
prove that this yields asymptotic MVUEs that behave similarly to the classical
MLEs and asymptotically attain the Cramer Rao bound. We demonstrate the
advantages of our approach in the context of signal to noise ratio estimation
as well as covariance estimation. A second motivation to BCE is in applications
where multiple estimates of the same unknown are averaged for improved
performance. Examples include distributed sensor networks and data augmentation
in test-time. In such applications, we show that BCE leads to asymptotically
consistent estimators.
- Abstract(参考訳): ガウス・マルコフの定理 (gauss markov theorem) は、重み付き最小二乗推定子は線型モデルにおける最小分散不偏推定 (mvue) であると述べている。
本稿では,バイアス制約のある深層学習を通じて,この結果を非線形設定に拡張する第一歩を踏み出す。
非線型MVUEを設計する古典的なアプローチは、しばしば計算的に挑戦的な最適化を伴う最大推定(MLE)によって行われる。
一方,深層学習法では,計算複雑性が一定である非線形推定器が利用可能である。
学習に基づく推定器は、トレーニングセットに関して平均的に最適に実行するが、他のパラメータに重大なバイアスを被る可能性がある。
そこで本研究では,損失関数に単純なバイアス制約を加え,バイアス制約付き推定器(bce)と呼ぶ推定器を提案する。
これは古典的 MLE と同様に振る舞う漸近的 MVUE を生じさせ、漸近的にクラマーラオ境界に達することを証明している。
本稿では,信号対雑音比推定および共分散推定の文脈において,提案手法の利点を示す。
BCEの第二の動機は、同じ未知の複数の推定値を平均化してパフォーマンスを向上させるアプリケーションである。
例えば、分散センサーネットワークやテスト時のデータ拡張がある。
このようなアプリケーションでは、BCE が漸近的に一貫した推定に繋がることを示す。
関連論文リスト
- Fine-Grained Dynamic Framework for Bias-Variance Joint Optimization on Data Missing Not at Random [2.8165314121189247]
レコメンデーションシステムやディスプレイ広告など、ほとんどの実践的なアプリケーションでは、収集されたデータには欠落する値が含まれることが多い。
我々は,バイアスと分散を協調的に最適化する,体系的なきめ細かな動的学習フレームワークを開発した。
論文 参考訳(メタデータ) (2024-05-24T10:07:09Z) - Optimal Baseline Corrections for Off-Policy Contextual Bandits [61.740094604552475]
オンライン報酬指標の偏りのないオフライン推定を最適化する意思決定ポリシーを学習することを目指している。
学習シナリオにおける同値性に基づく単一のフレームワークを提案する。
我々のフレームワークは、分散最適非バイアス推定器の特徴付けを可能にし、それに対する閉形式解を提供する。
論文 参考訳(メタデータ) (2024-05-09T12:52:22Z) - Error Reduction from Stacked Regressions [12.657895453939298]
積み重ね回帰は、予測精度を高めるために異なる回帰推定器の線形結合を形成するアンサンブル手法である。
本稿では,非負性制約を受ける経験的リスクの正規化バージョンを最小化することにより,これらの重みを類似的に学習する。
適応的縮小効果により、結果として生じる累積推定量は、最も優れた単一推定値よりも人口リスクが厳しく小さい。
論文 参考訳(メタデータ) (2023-09-18T15:42:12Z) - Scalable method for Bayesian experimental design without integrating
over posterior distribution [0.0]
実験問題のA-最適ベイズ設計における計算効率について検討する。
A-最適性はベイズの実験設計に広く用いられ、容易に解釈できる基準である。
本研究は, A-Optimal 実験設計における新しい可能性のないアプローチを提案する。
論文 参考訳(メタデータ) (2023-06-30T12:40:43Z) - Variational Linearized Laplace Approximation for Bayesian Deep Learning [11.22428369342346]
変分スパースガウス過程(GP)を用いた線形ラプラス近似(LLA)の近似法を提案する。
本手法はGPの2つのRKHSの定式化に基づいており、予測平均として元のDNNの出力を保持する。
効率のよい最適化が可能で、結果としてトレーニングデータセットのサイズのサブ線形トレーニング時間が短縮される。
論文 参考訳(メタデータ) (2023-02-24T10:32:30Z) - Near-optimal inference in adaptive linear regression [60.08422051718195]
最小二乗法のような単純な方法でさえ、データが適応的に収集されるときの非正規な振る舞いを示すことができる。
我々は,これらの分布異常を少なくとも2乗推定で補正するオンラインデバイアス推定器のファミリーを提案する。
我々は,マルチアームバンディット,自己回帰時系列推定,探索による能動的学習などの応用を通して,我々の理論の有用性を実証する。
論文 参考訳(メタデータ) (2021-07-05T21:05:11Z) - Scalable Marginal Likelihood Estimation for Model Selection in Deep
Learning [78.83598532168256]
階層型モデル選択は、推定困難のため、ディープラーニングではほとんど使われない。
本研究は,検証データが利用できない場合,限界的可能性によって一般化が向上し,有用であることを示す。
論文 参考訳(メタデータ) (2021-04-11T09:50:24Z) - Rao-Blackwellizing the Straight-Through Gumbel-Softmax Gradient
Estimator [93.05919133288161]
一般的なGumbel-Softmax推定器のストレートスルー変量の分散は、ラオ・ブラックウェル化により減少できることを示す。
これは平均二乗誤差を確実に減少させる。
これは分散の低減、収束の高速化、および2つの教師なし潜在変数モデルの性能向上につながることを実証的に実証した。
論文 参考訳(メタデータ) (2020-10-09T22:54:38Z) - Learning Minimax Estimators via Online Learning [55.92459567732491]
確率分布のパラメータを推定するミニマックス推定器を設計する際の問題点を考察する。
混合ケースナッシュ平衡を求めるアルゴリズムを構築した。
論文 参考訳(メタデータ) (2020-06-19T22:49:42Z) - On Low-rank Trace Regression under General Sampling Distribution [9.699586426043885]
クロスバリデード推定器は一般仮定でほぼ最適誤差境界を満たすことを示す。
また, クロスバリデーション推定器はパラメータ選択理論に着想を得た手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2019-04-18T02:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。