論文の概要: Fast Uncertainty Quantification for Kernel-Based Estimators in Large-Scale Causal Inference
- arxiv url: http://arxiv.org/abs/2603.13662v1
- Date: Sat, 14 Mar 2026 00:08:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.32332
- Title: Fast Uncertainty Quantification for Kernel-Based Estimators in Large-Scale Causal Inference
- Title(参考訳): 大規模因果推論におけるカーネルベース推定器の高速不確実性定量化
- Authors: Matthew Kosko, Falco J, Bargagli-Stoffi, Lin Wang, Michele Santacatterina,
- Abstract要約: Bootstrapは不確実性定量化の標準ツールです。
カーネル法はサンプルサイズではあまりスケールしないことが知られている。
カーネルベースの推定器に対するブートストラップに基づく推論は、大規模設定で計算不能になる可能性がある。
- 参考スコア(独自算出の注目度): 4.233656635920421
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Kernel methods are widely used in causal inference for tasks such as treatment effect estimation, policy evaluation, and policy learning. The bootstrap is a standard tool for uncertainty quantification because of its broad applicability. As increasingly large datasets become available, such as the 2023 U.S. Natality data from the National Vital Statistics System (NVSS), which includes 3,596,017 registered births, the computational demands of these methods increase substantially. Kernel methods are known to scale poorly with sample size, and this limitation is further exacerbated by the repeated re-fitting required by the bootstrap. As a result, bootstrap-based inference for kernel-based estimators can become computationally infeasible in large-scale settings. In this paper, we address these challenges by extending the causal Bag of Little Bootstraps (cBLB) algorithm to kernel methods. Our approach achieves computational scalability by combining subsampling and resampling while preserving first-order uncertainty quantification and asymptotically correct coverage. We evaluate the method across three representative implementations: kernelized augmented outcome-weighted learning, kernel-based minimax weighting, and double machine learning with kernel support vector machines. We show in simulations that our method yields confidence intervals with nominal coverage at a fraction of the computational cost. We further demonstrate its utility in a real-world application by estimating the effect of any amount of smoking on birth weight, as well as the optimal treatment regime, using the NVSS dataset, where the standard bootstrap is prohibitively expensive computationally and effectively infeasible at this scale.
- Abstract(参考訳): カーネル法は治療効果推定、政策評価、政策学習といったタスクの因果推論に広く用いられている。
ブートストラップは、その幅広い適用性のために不確実性定量化の標準ツールである。
2023年のNVSS(National Vital Statistics System)のデータでは、3,596,017人の出生が登録されているため、これらの手法の計算要求は大幅に増加する。
カーネル法はサンプルサイズではスケールが悪く、ブートストラップの繰り返し再適合によってこの制限がさらに悪化することが知られている。
結果として、カーネルベースの推定器に対するブートストラップに基づく推論は、大規模設定で計算不能になる可能性がある。
本稿では,Little Bootstraps (cBLB) アルゴリズムの因果バグをカーネルメソッドに拡張することで,これらの課題に対処する。
本手法は,1次不確実性定量化と漸近的に正しいカバレッジを保ちながら,サブサンプリングと再サンプリングを組み合わせた計算スケーラビリティを実現する。
提案手法は,カーネル化された強化結果重み付き学習,カーネルベースのミニマックス重み付け,カーネルサポートベクタマシンを用いたダブル機械学習の3つの実装にまたがって評価する。
提案手法は,計算コストのごく一部で,名目カバレッジで信頼区間を生成できることをシミュレーションで示す。
NVSSデータセットを用いて、出生体重に対する喫煙量の影響を推定し、その実用性を実世界でも実証する。
関連論文リスト
- Scalable Gaussian Processes with Low-Rank Deep Kernel Decomposition [7.532273334759435]
カーネルはガウス過程(GP)モデルにおいて、事前の信念とデータ構造を符号化する鍵である。
ディープカーネル学習は、標準的なパラメトリック形式を適用する前に、ニューラルネットワークを介して入力を入力することで、カーネルの柔軟性を向上させる。
我々は、ニューラルネットワークが直接低ランクカーネルを表現する、完全にデータ駆動でスケーラブルなディープカーネル表現を導入する。
論文 参考訳(メタデータ) (2025-05-24T05:42:11Z) - Center-Sensitive Kernel Optimization for Efficient On-Device Incremental Learning [88.78080749909665]
現在のオンデバイストレーニング手法は、破滅的な忘れを考慮せずに、効率的なトレーニングにのみ焦点をあてている。
本稿では,単純だが効果的なエッジフレンドリーなインクリメンタル学習フレームワークを提案する。
本手法は,メモリの削減と近似計算により,平均精度38.08%の高速化を実現する。
論文 参考訳(メタデータ) (2024-06-13T05:49:29Z) - Equation Discovery with Bayesian Spike-and-Slab Priors and Efficient Kernels [57.46832672991433]
ケルネル学習とBayesian Spike-and-Slab pres (KBASS)に基づく新しい方程式探索法を提案する。
カーネルレグレッションを用いてターゲット関数を推定する。これはフレキシブルで表現力があり、データ空間やノイズに対してより堅牢である。
我々は,効率的な後部推論と関数推定のための予測伝搬予測最大化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-10-09T03:55:09Z) - A Fast Bootstrap Algorithm for Causal Inference with Large Data [5.1236236055569195]
ブートストラップは直感的で強力な手法であり、推定器の標準誤差と信頼区間を構築するのに使用される。
機械学習と最適化技術に基づく現代の因果推論推定器はブートストラップの計算負担を悪化させる。
小さいブートストラップの袋は、大規模データに対する非因果的な設定で提案されているが、因果効果の推定器の特性を評価するには、まだ適用されていない。
論文 参考訳(メタデータ) (2023-02-06T15:26:36Z) - Meta-Learning Hypothesis Spaces for Sequential Decision-making [79.73213540203389]
オフラインデータ(Meta-KeL)からカーネルをメタ学習することを提案する。
穏やかな条件下では、推定されたRKHSが有効な信頼セットを得られることを保証します。
また,ベイズ最適化におけるアプローチの有効性を実証的に評価した。
論文 参考訳(メタデータ) (2022-02-01T17:46:51Z) - Learning to Estimate Without Bias [57.82628598276623]
ガウスの定理は、重み付き最小二乗推定器は線形モデルにおける線形最小分散アンバイアスド推定(MVUE)であると述べている。
本稿では、バイアス制約のあるディープラーニングを用いて、この結果を非線形設定に拡張する第一歩を踏み出す。
BCEの第二の動機は、同じ未知の複数の推定値が平均化されてパフォーマンスが向上するアプリケーションにおいてである。
論文 参考訳(メタデータ) (2021-10-24T10:23:51Z) - Adaptive Local Kernels Formulation of Mutual Information with
Application to Active Post-Seismic Building Damage Inference [1.066048003460524]
地震後の建築物の地域被害評価は高価な作業である。
相互情報の情報理論尺度は,サンプルの有効性を評価する上で最も有効な基準の一つである。
計算コストを削減するためにローカルカーネル戦略が提案されたが、観測されたラベルへのカーネルの適応性は考慮されなかった。
本稿では,観測された出力データに対するカーネルの適合性を実現するための適応型ローカルカーネル手法を開発した。
論文 参考訳(メタデータ) (2021-05-24T18:34:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。