論文の概要: CausalProfiler: Generating Synthetic Benchmarks for Rigorous and Transparent Evaluation of Causal Machine Learning
- arxiv url: http://arxiv.org/abs/2511.22842v1
- Date: Fri, 28 Nov 2025 02:21:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.743919
- Title: CausalProfiler: Generating Synthetic Benchmarks for Rigorous and Transparent Evaluation of Causal Machine Learning
- Title(参考訳): CausalProfiler: 因果機械学習の厳密かつ透明な評価のための合成ベンチマークを生成する
- Authors: Panayiotis Panayiotou, Audrey Poinsot, Alessandro Leite, Nicolas Chesneau, Marc Schoenauer, Özgür Şimşek,
- Abstract要約: Causal Machine Learning (Causal ML)は、機械学習アルゴリズムを使用して「もし」質問に答えることを目的としている。
既存のベンチマークはしばしば手作りまたは半合成のデータセットに頼り、不安定で一般化不可能な結論に至る。
本稿では,Causal ML法のためのベンチマーク生成器CausalProfilerを紹介する。
- 参考スコア(独自算出の注目度): 37.628115292905214
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Causal machine learning (Causal ML) aims to answer "what if" questions using machine learning algorithms, making it a promising tool for high-stakes decision-making. Yet, empirical evaluation practices in Causal ML remain limited. Existing benchmarks often rely on a handful of hand-crafted or semi-synthetic datasets, leading to brittle, non-generalizable conclusions. To bridge this gap, we introduce CausalProfiler, a synthetic benchmark generator for Causal ML methods. Based on a set of explicit design choices about the class of causal models, queries, and data considered, the CausalProfiler randomly samples causal models, data, queries, and ground truths constituting the synthetic causal benchmarks. In this way, Causal ML methods can be rigorously and transparently evaluated under a variety of conditions. This work offers the first random generator of synthetic causal benchmarks with coverage guarantees and transparent assumptions operating on the three levels of causal reasoning: observation, intervention, and counterfactual. We demonstrate its utility by evaluating several state-of-the-art methods under diverse conditions and assumptions, both in and out of the identification regime, illustrating the types of analyses and insights the CausalProfiler enables.
- Abstract(参考訳): Causal Machine Learning(Causal ML)は、機械学習アルゴリズムを使用して"何"質問に答えることを目的としている。
しかし、Causal MLにおける経験的評価の実践は依然として限られている。
既存のベンチマークはしばしば手作りまたは半合成のデータセットに頼り、不安定で一般化不可能な結論に至る。
このギャップを埋めるために、Causal MLメソッドのベンチマーク生成器であるCausalProfilerを導入する。
CausalProfilerは、因果モデル、クエリ、考慮されたデータのクラスに関する明示的な設計上の選択に基づいて、合成因果ベンチマークを構成する因果モデル、データ、クエリ、および基底真理をランダムにサンプリングする。
このようにして、Causal ML法は様々な条件下で厳密かつ透過的に評価することができる。
この研究は,3段階の因果推論(観察,介入,反事実)を対象とする,カバレッジ保証と透過的な仮定を備えた,合成因果ベンチマークの最初のランダム生成を提供する。
本研究では,様々な条件と仮定の下で,識別体制の内外を問わず,いくつかの最先端手法の評価を行い,CausalProfilerが実現した分析と洞察のタイプを説明することで,その実用性を実証する。
関連論文リスト
- Model Correlation Detection via Random Selection Probing [62.093777777813756]
既存の類似性に基づく手法では、モデルパラメータにアクセスしたり、しきい値なしでスコアを生成する必要がある。
本稿では,モデル相関検出を統計的テストとして定式化する仮説テストフレームワークであるランダム選択探索(RSP)を紹介する。
RSPは相関の証拠を定量化する厳密なp-値を生成する。
論文 参考訳(メタデータ) (2025-09-29T01:40:26Z) - Ice Cream Doesn't Cause Drowning: Benchmarking LLMs Against Statistical Pitfalls in Causal Inference [16.706959860667133]
大規模言語モデル(LLM)が厳密で信頼性の高い統計的因果推論を扱えるかどうかは不明である。
CausalPitfallsベンチマークは、信頼できる因果推論システムの開発を進めるための重要なガイダンスと定量的指標を提供する。
論文 参考訳(メタデータ) (2025-05-19T23:06:00Z) - Language Models as Causal Effect Generators [48.696932388555894]
シーケンス駆動型構造因果モデル(SD-SCM)を提案する。
SD-SCMは、所望の因果構造に応じて観察的、介入的、および反ファクト的分布からのサンプリングを可能にする。
本稿では, 因果推論のための新しいタイプのベンチマークを提案し, 個別レベルの反事実データを生成し, 治療効果の評価を行う。
論文 参考訳(メタデータ) (2024-11-12T18:50:35Z) - Evaluating Human Alignment and Model Faithfulness of LLM Rationale [66.75309523854476]
大規模言語モデル(LLM)が,その世代を理論的にどのように説明するかを考察する。
提案手法は帰属に基づく説明よりも「偽り」が少ないことを示す。
論文 参考訳(メタデータ) (2024-06-28T20:06:30Z) - Effective Bayesian Causal Inference via Structural Marginalisation and Autoregressive Orders [16.682775063684907]
すべての因果モデルに対する因果推論における不確実性の利用について検討する。
構造的辺化を (i) 因果順序上の辺化と (ii) 順序を与えられた非巡回グラフ (DAG) に分解する。
本手法は, 擬似非線形付加雑音ベンチマークにおいて, 構造学習における最先端の手法より優れる。
論文 参考訳(メタデータ) (2024-02-22T18:39:24Z) - Partially Specified Causal Simulations [0.0]
多くの因果推論文学は、過剰に制限された、または不特定な研究を設計する傾向がある。
本研究では,これらのデシラタに対応するシミュレーションフレームワークであるPARCSを導入する。
我々は、よく知られた因果発見と欠落データ分析論文のシミュレーション研究を再現し、拡張する。
論文 参考訳(メタデータ) (2023-09-19T10:50:35Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Evaluating Causal Inference Methods [0.4588028371034407]
我々は、因果推論手法を検証するために、深層生成モデルに基づくフレームワーク、クレデンスを導入する。
我々の研究は、因果推論手法を検証するために、深層生成モデルに基づくフレームワーク、クレデンスを導入している。
論文 参考訳(メタデータ) (2022-02-09T00:21:22Z) - Estimation of Bivariate Structural Causal Models by Variational Gaussian
Process Regression Under Likelihoods Parametrised by Normalising Flows [74.85071867225533]
因果機構は構造因果モデルによって記述できる。
最先端の人工知能の大きな欠点の1つは、説明責任の欠如である。
論文 参考訳(メタデータ) (2021-09-06T14:52:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。