論文の概要: Amortized Causal Discovery with Prior-Fitted Networks
- arxiv url: http://arxiv.org/abs/2512.11840v1
- Date: Wed, 03 Dec 2025 18:37:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-21 14:22:08.714608
- Title: Amortized Causal Discovery with Prior-Fitted Networks
- Title(参考訳): プリフィットネットワークによる暗証化因果発見
- Authors: Mateusz Sypniewski, Mateusz Olko, Mateusz Gajewski, Piotr Miłoś,
- Abstract要約: 本稿では,推定精度の限界に対処する新たな因果発見手法を提案する。
提案手法は,PFNを用いてデータ依存確率推定を補正し,構造学習のための信頼性の高いスコアを得る。
- 参考スコア(独自算出の注目度): 1.1985667260085477
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, differentiable penalized likelihood methods have gained popularity, optimizing the causal structure by maximizing its likelihood with respect to the data. However, recent research has shown that errors in likelihood estimation, even on relatively large sample sizes, disallow the discovery of proper structures. We propose a new approach to amortized causal discovery that addresses the limitations of likelihood estimator accuracy. Our method leverages Prior-Fitted Networks (PFNs) to amortize data-dependent likelihood estimation, yielding more reliable scores for structure learning. Experiments on synthetic, simulated, and real-world datasets show significant gains in structure recovery compared to standard baselines. Furthermore, we demonstrate directly that PFNs provide more accurate likelihood estimates than conventional neural network-based approaches.
- Abstract(参考訳): 近年,データに対する可能性の最大化によって因果構造を最適化し,識別可能なペナル化可能性法が普及している。
しかし、最近の研究では、比較的大きなサンプルサイズであっても、確率推定の誤差が適切な構造の発見を妨げていることが示されている。
本稿では,推定精度の限界に対処する新たな因果発見手法を提案する。
提案手法は,PFNを用いてデータ依存確率推定を補正し,構造学習のための信頼性の高いスコアを得る。
合成,シミュレーション,実世界のデータセットの実験では,標準ベースラインに比べて構造回復が著しく向上した。
さらに,PFNが従来のニューラルネットワークを用いた手法よりも精度の高い推定値を提供することを示す。
関連論文リスト
- Interpretable Deep Regression Models with Interval-Censored Failure Time Data [1.2993568435938014]
間隔制限付きデータの深層学習手法は、まだ探索が過小評価されており、特定のデータタイプやモデルに限られている。
本研究は、部分線形変換モデルの幅広いクラスを持つ区間知覚データに対する一般的な回帰フレームワークを提案する。
我々の手法をアルツハイマー病神経イメージングイニシアチブデータセットに適用すると、従来のアプローチと比較して新しい洞察と予測性能が向上する。
論文 参考訳(メタデータ) (2025-03-25T15:27:32Z) - Quantification of Uncertainties in Probabilistic Deep Neural Network by Implementing Boosting of Variational Inference [0.38366697175402226]
Boosted Bayesian Neural Networks (BBNN)は、ニューラルネットワークの重み分布近似を強化する新しいアプローチである。
BBNNは従来のニューラルネットワークに比べて5%高い精度を実現している。
論文 参考訳(メタデータ) (2025-03-18T05:11:21Z) - Trustworthy Personalized Bayesian Federated Learning via Posterior
Fine-Tune [3.1001287855313966]
ベイズ的手法を取り入れた,個人化されたフェデレーション学習のための新しいフレームワークを提案する。
我々は,新しいアルゴリズムが精度を向上するだけでなく,OOD検出においてベースラインを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2024-02-25T13:28:08Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Density Estimation with Autoregressive Bayesian Predictives [1.5771347525430772]
密度推定の文脈では、標準的なベイズ的アプローチは、後方予測をターゲットとする。
我々は、データを潜在空間にマッピングする自己回帰ニューラルネットワークを用いて、帯域幅の新たなパラメータ化を開発する。
論文 参考訳(メタデータ) (2022-06-13T20:43:39Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Bayesian Optimization Meets Laplace Approximation for Robotic
Introspection [41.117361086267806]
本稿では,Deep Neural Networks(DNN)をよりイントロスペクティブにするために,スケーラブルなLaplace Approximation (LA)技術を導入する。
特に,本論文では,真の重み付け後部を過小評価する傾向を緩和する新しいベイズ最適化(BO)アルゴリズムを提案する。
提案するフレームワークは,大規模データセットやアーキテクチャにまで拡張可能であることを示す。
論文 参考訳(メタデータ) (2020-10-30T09:28:10Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z) - Being Bayesian, Even Just a Bit, Fixes Overconfidence in ReLU Networks [65.24701908364383]
我々は、ReLUネットワーク上の不確実性に対する十分条件が「少しベイズ校正される」ことを示す。
さらに,これらの知見を,共通深部ReLUネットワークとLaplace近似を用いた各種標準実験により実証的に検証した。
論文 参考訳(メタデータ) (2020-02-24T08:52:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。