論文の概要: Use What You Know: Causal Foundation Models with Partial Graphs
- arxiv url: http://arxiv.org/abs/2602.14972v1
- Date: Mon, 16 Feb 2026 17:56:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:50.570105
- Title: Use What You Know: Causal Foundation Models with Partial Graphs
- Title(参考訳): あなたが知っていることを使う:部分グラフによる因果的基礎モデル
- Authors: Arik Reuter, Anish Dhir, Cristiana Diaconu, Jake Robertson, Ole Ossen, Frank Hutter, Adrian Weller, Mark van der Wilk, Bernhard Schölkopf,
- Abstract要約: 最近提案されたCausal Foundation Models (CFMs) は、因果発見と推論を単一ステップで補正することで、より統一的なアプローチを約束している。
我々は、因果グラフやより容易に利用可能な祖先情報などの因果情報に基づいてCFMを条件付ける手法を導入することにより、このギャップを埋める。
- 参考スコア(独自算出の注目度): 97.91863420927866
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Estimating causal quantities traditionally relies on bespoke estimators tailored to specific assumptions. Recently proposed Causal Foundation Models (CFMs) promise a more unified approach by amortising causal discovery and inference in a single step. However, in their current state, they do not allow for the incorporation of any domain knowledge, which can lead to suboptimal predictions. We bridge this gap by introducing methods to condition CFMs on causal information, such as the causal graph or more readily available ancestral information. When access to complete causal graph information is too strict a requirement, our approach also effectively leverages partial causal information. We systematically evaluate conditioning strategies and find that injecting learnable biases into the attention mechanism is the most effective method to utilise full and partial causal information. Our experiments show that this conditioning allows a general-purpose CFM to match the performance of specialised models trained on specific causal structures. Overall, our approach addresses a central hurdle on the path towards all-in-one causal foundation models: the capability to answer causal queries in a data-driven manner while effectively leveraging any amount of domain expertise.
- Abstract(参考訳): 因果量の推定は、伝統的に特定の仮定に合わせたベスポーク推定器に依存している。
最近提案されたCausal Foundation Models (CFMs) は、因果発見と推論を単一ステップで補正することで、より統一的なアプローチを約束している。
しかし、現在の状態においては、ドメイン知識を組み込むことは許されず、それが準最適予測に繋がる可能性がある。
我々は、因果グラフやより容易に利用可能な祖先情報などの因果情報に基づいてCFMを条件付ける手法を導入することにより、このギャップを埋める。
完全な因果グラフ情報へのアクセスが厳しすぎる場合,本手法は部分因果グラフ情報を効果的に活用する。
我々は条件付け戦略を体系的に評価し、学習可能なバイアスを注意機構に注入することが、完全な因果情報を活用するための最も効果的な方法であることを確認した。
本実験により, この条件付けにより, 特定の因果構造に基づいて訓練された特化モデルの性能と, 汎用CFMが一致できることが示唆された。
全体として、私たちのアプローチは、オールインワンの因果的基礎モデルへの道のりの中心的なハードル、すなわち、データ駆動型で因果的クエリに応答する能力に対処し、ドメインの専門知識を効果的に活用する能力に対処しています。
関連論文リスト
- CAT: Causal Attention Tuning For Injecting Fine-grained Causal Knowledge into Large Language Models [42.12079243701232]
因果注意チューニング(Causal Attention Tuning, CAT)は、注意機構に微粒な因果知識を注入する新しいアプローチである。
トークンレベルの因果信号を自動的に生成するために,人間の先行情報を活用する自動パイプラインを提案する。
CatはSTGデータセットで5.76%、下流タスクで1.56%の平均的な改善を実現している。
論文 参考訳(メタデータ) (2025-09-01T15:13:15Z) - Retrieving Classes of Causal Orders with Inconsistent Knowledge Bases [0.8192907805418583]
大規模言語モデル(LLM)は、テキストベースのメタデータから因果的知識を抽出するための有望な代替手段として登場した。
LLMは信頼できない傾向があり、幻覚を起こす傾向があり、その限界を考慮に入れた戦略を必要とする。
本稿では,非循環型トーナメントのクラスを導出する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-12-18T16:37:51Z) - Discovering and Reasoning of Causality in the Hidden World with Large Language Models [109.62442253177376]
我々はCausal representatiOn AssistanT(COAT)と呼ばれる新しいフレームワークを開発し、因果発見に有用な測定変数を提案する。
大規模言語モデル (LLM) と因果関係を直接推論する代わりに、COAT は中間因果発見結果から LLM へのフィードバックを構築し、提案した変数を洗練させる。
論文 参考訳(メタデータ) (2024-02-06T12:18:54Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Active Bayesian Causal Inference [72.70593653185078]
因果発見と推論を統合するための完全ベイズ能動学習フレームワークであるアクティブベイズ因果推論(ABCI)を提案する。
ABCIは因果関係のモデルと関心のクエリを共同で推論する。
我々のアプローチは、完全な因果グラフの学習のみに焦点を当てた、いくつかのベースラインよりも、よりデータ効率が高いことを示す。
論文 参考訳(メタデータ) (2022-06-04T22:38:57Z) - Uncovering Main Causalities for Long-tailed Information Extraction [14.39860866665021]
データセットの選択バイアスによって引き起こされる長い尾の分布は、誤った相関をもたらす可能性がある。
これは、データの背後にある主な因果関係を明らかにすることを目的とした、新しいフレームワークである。
論文 参考訳(メタデータ) (2021-09-11T08:08:24Z) - Incorporating Causal Graphical Prior Knowledge into Predictive Modeling
via Simple Data Augmentation [92.96204497841032]
因果グラフ(CG)は、データ分散の背後にあるデータ生成プロセスの知識のコンパクトな表現である。
本研究では,条件付き独立性(CI)関係の事前知識を活用可能なモデルに依存しないデータ拡張手法を提案する。
本手法は,小データシステムにおける予測精度の向上に有効であることを実験的に示した。
論文 参考訳(メタデータ) (2021-02-27T06:13:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。