論文の概要: Towards Reliable Simulation-based Inference
- arxiv url: http://arxiv.org/abs/2603.08947v1
- Date: Mon, 09 Mar 2026 21:29:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:23.83646
- Title: Towards Reliable Simulation-based Inference
- Title(参考訳): 信頼性のあるシミュレーションベース推論を目指して
- Authors: Arnaud Delaunoy,
- Abstract要約: この論文は、科学シミュレーターの形をとる統計モデルに焦点を当てている。
機械学習を用いて統計的解析を行うには,近似の程度が伴うことを示す。
バランスは、機械学習モデルを規則化し、過剰な自信を減らし、校正されたあるいは過度な近似を好む方法である。
- 参考スコア(独自算出の注目度): 1.1168121941015015
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Scientific knowledge expands by observing the world, hypothesizing some theories about it, and testing them against collected data. When those theories take the form of statistical models, statistical analyses are involved in the process of testing and refining scientific hypotheses. In this thesis, we focus on statistical models that take the form of scientific simulators and provide background about how machine learning can be used for statistical analyses in this context. The first part of this thesis is about showing empirically that performing statistical analyses with machine learning involves a degree of approximation. Specifically, all statistical analyses involve a level of uncertainty in the conclusions drawn, and we show that approximations can lead to overconfident conclusions. We draw caution regarding such overconfident conclusions and introduce a criterion to diagnose overconfident approximations. In the second part, we introduce balancing, a way to regularize machine learning models to reduce overconfidence and favor calibrated or underconfident approximations. Balancing is first introduced for neural ratio estimation algorithms and then extended to other algorithms. Intuition about why balancing leads to less overconfident solutions is provided, and it is shown empirically that balanced algorithms are often either close to calibrated or underconfident. The third part shows that Bayesian neural networks can also be used to mitigate the overconfidence of approximations. Unlike balancing, no regularization is required, and this solution can then work with few training samples and, hence, computationally expensive simulators. To that end, a new Bayesian neural network prior tailored for simulation-based inference is developed, and empirical results show a reduction in overconfidence compared to similar solutions without Bayesian neural networks.
- Abstract(参考訳): 科学的知識は、世界を観察し、それに関するいくつかの理論を仮説化し、収集されたデータに対してそれらをテストすることによって拡大する。
これらの理論が統計モデルの形式をとると、統計分析は科学的仮説のテストと精査の過程に関与する。
本稿では,科学シミュレータの形式を取り入れた統計モデルに焦点をあて,この文脈における統計的解析に機械学習をどのように利用できるかという背景を提供する。
この論文の第1部は、機械学習による統計的分析の実行には近似の程度が伴うことを実証的に示すことである。
具体的には、全ての統計分析は、引き出された結論の不確実性のレベルを含み、近似が過信な結論につながることを示す。
我々は、そのような過信な結論に注意を喚起し、過信な近似を診断するための基準を導入する。
第2部ではバランシングを導入し、機械学習モデルを正規化し、過信を減らし、校正あるいは過信の近似を好む方法を紹介します。
バランシングはまずニューラル比推定アルゴリズムに導入され、その後他のアルゴリズムに拡張される。
バランスの取れたアルゴリズムは、しばしばキャリブレーションまたはアンダー信頼に近いことが実証的に示される。
第3の部分は、ベイズニューラルネットワークが近似の過信を軽減するためにも使用できることを示している。
バランスとは異なり、正規化は不要であり、このソリューションは少数のトレーニングサンプルと計算コストのかかるシミュレータで動作することができる。
そこで,シミュレーションに基づく推論を前提とした新しいベイズニューラルネットワークを開発した。
関連論文リスト
- A Statistical Assessment of Amortized Inference Under Signal-to-Noise Variation and Distribution Shift [0.9590253747787195]
近年、ディープニューラルネットワークと基礎モデルの成功により、統計モデリングの新しいパラダイムが生まれている。
償却推論では、近似した後方または予測を生成するニューラルネットワークをトレーニングするために、実質的な計算が前もって投資される。
償却推論の人気が高まっているにもかかわらず、その統計的解釈とベイズ推論におけるその役割はいまだに理解されていない。
論文 参考訳(メタデータ) (2026-01-12T19:21:51Z) - Calibrated and uncertain? Evaluating uncertainty estimates in binary classification models [0.0]
厳密な統計手法は、特に自然科学における科学的発見の妥当性を裏付けるものである。
我々は、ベイズ近似の統一的枠組みと、慎重に生成された合成分類データセットの実証実験を併用する。
アルゴリズムが、よく校正され、分布外データポイントの不確実性の増加を示すなど、一般的に望まれる特性を反映した不確実性推定を生成するかどうかを確認する。
論文 参考訳(メタデータ) (2025-08-15T13:17:32Z) - Calibrating Neural Simulation-Based Inference with Differentiable
Coverage Probability [50.44439018155837]
ニューラルモデルのトレーニング目的に直接キャリブレーション項を含めることを提案する。
古典的なキャリブレーション誤差の定式化を緩和することにより、エンドツーエンドのバックプロパゲーションを可能にする。
既存の計算パイプラインに直接適用でき、信頼性の高いブラックボックス後部推論が可能である。
論文 参考訳(メタデータ) (2023-10-20T10:20:45Z) - Prediction-Powered Inference [68.97619568620709]
予測を用いた推論は、実験データセットに機械学習システムからの予測を補足した場合に有効な統計的推論を行うためのフレームワークである。
このフレームワークは、手段、量子、線形およびロジスティック回帰係数などの量に対して証明可能な信頼区間を計算するための単純なアルゴリズムを生成する。
予測による推論により、研究者は機械学習を使用して、より有効な、よりデータ効率の高い結論を導き出すことができる。
論文 参考訳(メタデータ) (2023-01-23T18:59:28Z) - Nonparametric likelihood-free inference with Jensen-Shannon divergence
for simulator-based models with categorical output [1.4298334143083322]
シミュレータに基づく統計モデルに対する自由な推論は、機械学習と統計のコミュニティの両方において、関心の高まりを招いている。
本稿では、Jensen-Shannon- divergenceの計算特性を用いて、モデルパラメータに対する推定、仮説テスト、信頼区間の構築を可能にする理論的結果のセットを導出する。
このような近似はより集中的なアプローチの素早い代替手段であり、シミュレーターベースモデルの多種多様な応用には魅力的である。
論文 参考訳(メタデータ) (2022-05-22T18:00:13Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Double Robust Representation Learning for Counterfactual Prediction [68.78210173955001]
そこで本稿では, 対実予測のための2次ロバスト表現を学習するための, スケーラブルな新しい手法を提案する。
我々は、個々の治療効果と平均的な治療効果の両方に対して、堅牢で効率的な対実的予測を行う。
このアルゴリズムは,実世界の最先端技術と合成データとの競合性能を示す。
論文 参考訳(メタデータ) (2020-10-15T16:39:26Z) - Balance-Subsampled Stable Prediction [55.13512328954456]
本稿では, 分数分解設計理論に基づく新しいバランスサブサンプル安定予測法を提案する。
設計理論解析により,提案手法は分布シフトによって誘導される予測器間の共起効果を低減できることを示した。
合成および実世界の両方のデータセットに関する数値実験により、BSSPアルゴリズムは未知のテストデータ間で安定した予測を行うためのベースライン法を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2020-06-08T07:01:38Z) - A comprehensive study on the prediction reliability of graph neural
networks for virtual screening [0.0]
本稿では,モデルアーキテクチャ,正規化手法,損失関数が分類結果の予測性能および信頼性に与える影響について検討する。
その結果,高い成功率を達成するためには,正則化と推論手法の正しい選択が重要であることが明らかとなった。
論文 参考訳(メタデータ) (2020-03-17T10:13:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。