論文の概要: Estimation and Model Misspecification: Fake and Missing Features
- arxiv url: http://arxiv.org/abs/2203.03398v1
- Date: Mon, 7 Mar 2022 13:50:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-08 15:57:55.178281
- Title: Estimation and Model Misspecification: Fake and Missing Features
- Title(参考訳): 推定とモデル誤特定: フェイクと欠落の機能
- Authors: Martin Hellkvist, Ay\c{c}a \"Oz\c{c}elikkale, Anders Ahl\'en
- Abstract要約: 提案手法では,推定時に使用するシステムとモデルとの間にミスマッチが存在する場合,モデルミスセグメンテーションに基づく推定について検討する。
そこで本研究では, モデル不特定型と不特定型を併用して, ニセモノと欠落した特徴を有するモデル不特定型を共同処理できるモデル不特定型フレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider estimation under model misspecification where there is a model
mismatch between the underlying system, which generates the data, and the model
used during estimation. We propose a model misspecification framework which
enables a joint treatment of the model misspecification types of having fake
and missing features, as well as incorrect covariance assumptions on the
unknowns and the noise. Here, features which are included in the model but are
not present in the underlying system, and features which are not included in
the model but are present in the underlying system, are referred to as fake and
missing features, respectively. Under this framework, we characterize the
estimation performance and reveal trade-offs between the missing and fake
features and the possibly incorrect noise level assumption. In contrast to
existing work focusing on incorrect covariance assumptions or missing features,
fake features is a central component of our framework. Our results show that
fake features can significantly improve the estimation performance, even though
they are not correlated with the features in the underlying system. In
particular, we show that the estimation error can be decreased by including
more fake features in the model, even to the point where the model is
overparametrized, i.e., the model contains more unknowns than observations.
- Abstract(参考訳): 本研究では,データを生成する基盤システムと推定時に使用するモデルとの間に,モデルミスマッチが存在する場合のモデルミスセプションに基づく推定について検討する。
そこで本研究では,偽物や欠落した特徴のモデル誤特定型と,未知物や雑音に対する不正確な共分散仮定の同時処理を可能にするモデル誤特定フレームワークを提案する。
ここでは、モデルに含まれているが、基盤システムには存在しない特徴と、モデルには含まれないが基盤システムには存在しない特徴を、それぞれ偽の特徴と欠落した特徴とみなす。
この枠組みでは, 推定性能を特徴付けるとともに, 欠落した特徴と偽の特徴とのトレードオフを明らかにする。
間違った共分散の仮定や欠けている機能に焦点を当てた既存の作業とは対照的に、フェイク機能は私たちのフレームワークの中心的なコンポーネントです。
その結果,基礎となるシステムの特徴とは関係なくとも,フェイク機能は推定性能を大幅に向上できることがわかった。
特に,モデルが過度にパラメータ化されている点,すなわち,観測値よりも未知量が多い点においても,モデルに偽の特徴を含めることで,推定誤差を低減できることを示す。
関連論文リスト
- Parameter uncertainties for imperfect surrogate models in the low-noise regime [0.3069335774032178]
我々は、不特定、ほぼ決定論的シュロゲートモデルの一般化誤差を解析する。
遅れた一般化誤差を避けるために、後続分布が全ての訓練点をカバーする必要があることを示す。
これは、原子論的機械学習における1000次元データセットに適用する前に、モデル問題で実証される。
論文 参考訳(メタデータ) (2024-02-02T11:41:21Z) - Regularization Trade-offs with Fake Features [0.0]
本稿では、過度にパラメータ化されたモデルがフェイク機能を含むフレームワークについて考察する。
本稿では、リッジ回帰問題の一般化誤差に縛られる非漸近的高確率について述べる。
論文 参考訳(メタデータ) (2022-12-01T11:11:14Z) - Rigorous Assessment of Model Inference Accuracy using Language
Cardinality [5.584832154027001]
我々は,統計的推定を決定論的精度尺度に置き換えることで,モデル精度評価におけるバイアスと不確実性を最小化する体系的アプローチを開発する。
我々は、最先端の推論ツールによって推定されるモデルの精度を評価することによって、我々のアプローチの一貫性と適用性を実験的に実証した。
論文 参考訳(メタデータ) (2022-11-29T21:03:26Z) - A view on model misspecification in uncertainty quantification [17.17262672213263]
機械学習モデルの不確実性を推定することは、これらのモデルが提供する予測の品質を評価するために不可欠である。
モデルは単に単純化や現実への近似であるので、モデルの不特定は常に存在する。
本稿では、思考実験を行い、関連する文献を文脈化することによって、モデル不特定がより注目を集めるべきである、と論じる。
論文 参考訳(メタデータ) (2022-10-30T20:26:43Z) - Investigating Ensemble Methods for Model Robustness Improvement of Text
Classifiers [66.36045164286854]
既存のバイアス機能を分析し、すべてのケースに最適なモデルが存在しないことを実証します。
適切なバイアスモデルを選択することで、より洗練されたモデル設計でベースラインよりもロバスト性が得られる。
論文 参考訳(メタデータ) (2022-10-28T17:52:10Z) - Predicting is not Understanding: Recognizing and Addressing
Underspecification in Machine Learning [47.651130958272155]
下位仕様とは、ドメイン内の精度で区別できない複数のモデルの存在を指す。
我々は、不特定概念を形式化し、それを特定し、部分的に対処する方法を提案する。
論文 参考訳(メタデータ) (2022-07-06T11:20:40Z) - Understanding Factual Errors in Summarization: Errors, Summarizers,
Datasets, Error Detectors [105.12462629663757]
本研究では、既存の9つのデータセットから事実性エラーアノテーションを集約し、基礎となる要約モデルに従ってそれらを階層化する。
本稿では,この階層化ベンチマークにおいて,最近のChatGPTベースの指標を含む最先端の事実性指標の性能を比較し,その性能が様々な種類の要約モデルで大きく異なることを示す。
論文 参考訳(メタデータ) (2022-05-25T15:26:48Z) - Closed-form discovery of structural errors in models of chaotic systems
by integrating Bayesian sparse regression and data assimilation [0.0]
私たちはMEDIDAというフレームワークを紹介します: 解釈可能性とデータ同化を伴うモデルエラー発見。
MEDIDAでは、まず、観測状態と予測状態の差からモデル誤差を推定する。
観測結果がノイズである場合、まず、アンサンブルカルマンフィルタ(EnKF)のようなデータ同化手法を用いて、システムのノイズフリー解析状態を提供する。
最後に、レバレンスベクトルマシン(RVM)のような方程式発見手法、すなわちスパーシィプロモーティングベイズ法を用いて、解釈可能でパシモニアスでクローズドな解を同定する。
論文 参考訳(メタデータ) (2021-10-01T17:19:28Z) - Predicting with Confidence on Unseen Distributions [90.68414180153897]
ドメイン適応と予測不確実性文学を結びつけて、挑戦的な未知分布のモデル精度を予測する。
分類器の予測における信頼度(DoC)の差は,様々な変化に対して,分類器の性能変化を推定することに成功した。
具体的には, 合成分布と自然分布の区別について検討し, その単純さにもかかわらず, DoCは分布差の定量化に優れることを示した。
論文 参考訳(メタデータ) (2021-07-07T15:50:18Z) - How Faithful is your Synthetic Data? Sample-level Metrics for Evaluating
and Auditing Generative Models [95.8037674226622]
ドメインに依存しない方法で生成モデルの忠実度,多様性,一般化性能を特徴付ける3次元評価指標を提案する。
当社のメトリクスは、精度リコール分析により統計的発散測定を統合し、モデル忠実度と多様性のサンプルおよび分布レベルの診断を可能にします。
論文 参考訳(メタデータ) (2021-02-17T18:25:30Z) - Removing Spurious Features can Hurt Accuracy and Affect Groups
Disproportionately [83.68135652247496]
自然な修正は、モデルからスプリアスな特徴を取り除くことである。
誘導バイアスによる突発的特徴の除去は精度を低下させる可能性が示唆された。
また,ロバストな自己学習によって,全体的な正確性に影響を与えずにスプリアスな特徴を除去できることを示した。
論文 参考訳(メタデータ) (2020-12-07T23:08:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。