論文の概要: Lipschitz-Driven Inference: Bias-corrected Confidence Intervals for Spatial Linear Models
- arxiv url: http://arxiv.org/abs/2502.06067v1
- Date: Sun, 09 Feb 2025 23:20:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:34:01.463725
- Title: Lipschitz-Driven Inference: Bias-corrected Confidence Intervals for Spatial Linear Models
- Title(参考訳): リプシッツ駆動推論:空間線形モデルに対するバイアス補正信頼区間
- Authors: David R. Burt, Renato Berlinghieri, Stephen Bates, Tamara Broderick,
- Abstract要約: 空間線形モデルにおける信頼区間を構成する既存の手法は、未計算の偏りにより、正しいカバレッジを提供できないことを示す。
本稿では,推定手順のバイアスを考慮した新しい信頼区間構成を提案する。
提案手法は,理論と実験の両面から名目カバレッジを実現することを実証する。
- 参考スコア(独自算出の注目度): 26.063765269659076
- License:
- Abstract: Linear models remain ubiquitous in modern spatial applications - including climate science, public health, and economics - due to their interpretability, speed, and reproducibility. While practitioners generally report a form of uncertainty, popular spatial uncertainty quantification methods do not jointly handle model misspecification and distribution shift - despite both being essentially always present in spatial problems. In the present paper, we show that existing methods for constructing confidence (or credible) intervals in spatial linear models fail to provide correct coverage due to unaccounted-for bias. In contrast to classical methods that rely on an i.i.d. assumption that is inappropriate in spatial problems, in the present work we instead make a spatial smoothness (Lipschitz) assumption. We are then able to propose a new confidence-interval construction that accounts for bias in the estimation procedure. We demonstrate that our new method achieves nominal coverage via both theory and experiments. Code to reproduce experiments is available at https://github.com/DavidRBurt/Lipschitz-Driven-Inference.
- Abstract(参考訳): 線形モデルは、その解釈可能性、速度、再現性のために、気候科学、公衆衛生、経済など、現代の空間的応用においてユビキタスなままである。
実践者は一般に不確実性の形式を報告するが、一般的な空間不確実性の定量化手法は、本質的には空間問題に必ず存在するにもかかわらず、モデルの誤特定と分布シフトを共同で扱わない。
本稿では,空間線形モデルにおいて,信頼区間(あるいは信頼区間)を構築するための既存の手法では,未計算の偏りによる正確なカバレッジが得られないことを示す。
空間問題に不適切である i.d. の仮定に依存する古典的な方法とは対照的に、現在の研究では空間的滑らかさ (Lipschitz) を仮定する。
評価手法のバイアスを考慮した新しい信頼区間構築を提案することができる。
提案手法は,理論と実験の両面から名目カバレッジを実現することを実証する。
実験を再現するコードはhttps://github.com/DavidRBurt/Lipschitz-Driven-Inferenceで公開されている。
関連論文リスト
- Inflationary Flows: Calibrated Bayesian Inference with Diffusion-Based Models [0.0]
本稿では,拡散モデルを用いてベイズ推定を行う方法を示す。
本稿では,新しいノイズスケジュールを用いて,標準的なDBMトレーニングを通じてそのようなマップを学習する方法を示す。
その結果は、低次元の潜在空間上で一意に定義される非常に表現性の高い生成モデルのクラスである。
論文 参考訳(メタデータ) (2024-07-11T19:58:19Z) - Learning When the Concept Shifts: Confounding, Invariance, and Dimension Reduction [5.38274042816001]
観測データでは、分布シフトは観測されていない共起因子によって駆動されることが多い。
このことは、観測データを用いた領域適応問題の研究を動機付けます。
学習した低次元部分空間を用いて、ターゲットとソースのリスクの間にほぼ理想的なギャップを生じさせるモデルを示す。
論文 参考訳(メタデータ) (2024-06-22T17:43:08Z) - SimPro: A Simple Probabilistic Framework Towards Realistic Long-Tailed Semi-Supervised Learning [49.94607673097326]
ラベルなしデータの分散に関する前提を前提としない、高度に適応可能なフレームワークをSimProとして提案する。
我々のフレームワークは確率モデルに基づいており、期待最大化アルゴリズムを革新的に洗練する。
本手法は,様々なベンチマークやデータ分散シナリオにまたがる一貫した最先端性能を示す。
論文 参考訳(メタデータ) (2024-02-21T03:39:04Z) - Calibrating Neural Simulation-Based Inference with Differentiable
Coverage Probability [50.44439018155837]
ニューラルモデルのトレーニング目的に直接キャリブレーション項を含めることを提案する。
古典的なキャリブレーション誤差の定式化を緩和することにより、エンドツーエンドのバックプロパゲーションを可能にする。
既存の計算パイプラインに直接適用でき、信頼性の高いブラックボックス後部推論が可能である。
論文 参考訳(メタデータ) (2023-10-20T10:20:45Z) - Linear Adversarial Concept Erasure [108.37226654006153]
与えられた概念に対応する線形部分空間の同定と消去の問題を定式化する。
提案手法は, トラクタビリティと解釈性を維持しつつ, 深い非線形分類器のバイアスを効果的に軽減し, 高い表現性を有することを示す。
論文 参考訳(メタデータ) (2022-01-28T13:00:17Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - Self-Supervised Hybrid Inference in State-Space Models [0.0]
我々は、潜在空間における非線形高階マルコフ連鎖を許容する状態空間モデルにおいて近似推論を行う。
生成モデルや監督のパラメータ化を、未破損の観測や真理潜伏状態による追加のパラメータ化に頼ってはいない。
カオスロレンツシステムにおいて,完全教師付きアプローチと比較して競合的な結果を得るとともに,変分推論に基づく手法よりも優れることを示す。
論文 参考訳(メタデータ) (2021-07-28T13:26:14Z) - Near-optimal inference in adaptive linear regression [60.08422051718195]
最小二乗法のような単純な方法でさえ、データが適応的に収集されるときの非正規な振る舞いを示すことができる。
我々は,これらの分布異常を少なくとも2乗推定で補正するオンラインデバイアス推定器のファミリーを提案する。
我々は,マルチアームバンディット,自己回帰時系列推定,探索による能動的学習などの応用を通して,我々の理論の有用性を実証する。
論文 参考訳(メタデータ) (2021-07-05T21:05:11Z) - Locally Valid and Discriminative Confidence Intervals for Deep Learning
Models [37.57296694423751]
不確実性情報は有効(保証対象)で差別的(予想されるリスクが高い場合にさらに不確実)でなければならない
既存のベイジアン法の多くは、頻繁なカバレッジ保証がなく、通常モデルのパフォーマンスに影響を与える。
ほぼどんな深層学習モデルに対しても,識別的信頼区間(CI)を構築するための簡易かつ効率的かつ軽量な手法であるLVD(Locally Valid and Discriminative confidence intervals)を提案する。
論文 参考訳(メタデータ) (2021-06-01T04:39:56Z) - Learning Probabilistic Ordinal Embeddings for Uncertainty-Aware
Regression [91.3373131262391]
不確かさが唯一の確実性である。
伝統的に、直接回帰定式化を考慮し、ある確率分布の族に出力空間を変更することによって不確実性をモデル化する。
現在のレグレッション技術における不確実性をモデル化する方法は、未解決の問題である。
論文 参考訳(メタデータ) (2021-03-25T06:56:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。