論文の概要: Use What You Know: Causal Foundation Models with Partial Graphs
- arxiv url: http://arxiv.org/abs/2602.14972v1
- Date: Mon, 16 Feb 2026 17:56:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:50.570105
- Title: Use What You Know: Causal Foundation Models with Partial Graphs
- Title(参考訳): あなたが知っていることを使う:部分グラフによる因果的基礎モデル
- Authors: Arik Reuter, Anish Dhir, Cristiana Diaconu, Jake Robertson, Ole Ossen, Frank Hutter, Adrian Weller, Mark van der Wilk, Bernhard Schölkopf,
- Abstract要約: 最近提案されたCausal Foundation Models (CFMs) は、因果発見と推論を単一ステップで補正することで、より統一的なアプローチを約束している。
我々は、因果グラフやより容易に利用可能な祖先情報などの因果情報に基づいてCFMを条件付ける手法を導入することにより、このギャップを埋める。
- 参考スコア(独自算出の注目度): 97.91863420927866
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Estimating causal quantities traditionally relies on bespoke estimators tailored to specific assumptions. Recently proposed Causal Foundation Models (CFMs) promise a more unified approach by amortising causal discovery and inference in a single step. However, in their current state, they do not allow for the incorporation of any domain knowledge, which can lead to suboptimal predictions. We bridge this gap by introducing methods to condition CFMs on causal information, such as the causal graph or more readily available ancestral information. When access to complete causal graph information is too strict a requirement, our approach also effectively leverages partial causal information. We systematically evaluate conditioning strategies and find that injecting learnable biases into the attention mechanism is the most effective method to utilise full and partial causal information. Our experiments show that this conditioning allows a general-purpose CFM to match the performance of specialised models trained on specific causal structures. Overall, our approach addresses a central hurdle on the path towards all-in-one causal foundation models: the capability to answer causal queries in a data-driven manner while effectively leveraging any amount of domain expertise.
- Abstract(参考訳): 因果量の推定は、伝統的に特定の仮定に合わせたベスポーク推定器に依存している。
最近提案されたCausal Foundation Models (CFMs) は、因果発見と推論を単一ステップで補正することで、より統一的なアプローチを約束している。
しかし、現在の状態においては、ドメイン知識を組み込むことは許されず、それが準最適予測に繋がる可能性がある。
我々は、因果グラフやより容易に利用可能な祖先情報などの因果情報に基づいてCFMを条件付ける手法を導入することにより、このギャップを埋める。
完全な因果グラフ情報へのアクセスが厳しすぎる場合,本手法は部分因果グラフ情報を効果的に活用する。
我々は条件付け戦略を体系的に評価し、学習可能なバイアスを注意機構に注入することが、完全な因果情報を活用するための最も効果的な方法であることを確認した。
本実験により, この条件付けにより, 特定の因果構造に基づいて訓練された特化モデルの性能と, 汎用CFMが一致できることが示唆された。
全体として、私たちのアプローチは、オールインワンの因果的基礎モデルへの道のりの中心的なハードル、すなわち、データ駆動型で因果的クエリに応答する能力に対処し、ドメインの専門知識を効果的に活用する能力に対処しています。
関連論文リスト
- Leveraging Large Language Models for Causal Discovery: a Constraint-based, Argumentation-driven Approach [9.175642602891939]
Causal Assumption-based Argumentation (ABA)は、入力制約と出力グラフの対応性を確保するためにシンボリック推論を使用するフレームワークである。
本稿では,大言語モデル(LLM)をCausal ABAの不完全専門家として活用し,変数名や記述から意味的構造的事前を抽出する方法について検討する。
標準的なベンチマークとセマンティックグラウンドの合成グラフの実験は、最先端の性能を示している。
論文 参考訳(メタデータ) (2026-02-18T14:15:21Z) - CAT: Causal Attention Tuning For Injecting Fine-grained Causal Knowledge into Large Language Models [42.12079243701232]
因果注意チューニング(Causal Attention Tuning, CAT)は、注意機構に微粒な因果知識を注入する新しいアプローチである。
トークンレベルの因果信号を自動的に生成するために,人間の先行情報を活用する自動パイプラインを提案する。
CatはSTGデータセットで5.76%、下流タスクで1.56%の平均的な改善を実現している。
論文 参考訳(メタデータ) (2025-09-01T15:13:15Z) - Retrieving Classes of Causal Orders with Inconsistent Knowledge Bases [0.8192907805418583]
大規模言語モデル(LLM)は、テキストベースのメタデータから因果的知識を抽出するための有望な代替手段として登場した。
LLMは信頼できない傾向があり、幻覚を起こす傾向があり、その限界を考慮に入れた戦略を必要とする。
本稿では,非循環型トーナメントのクラスを導出する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-12-18T16:37:51Z) - Large Language Models for Constrained-Based Causal Discovery [4.858756226945995]
因果関係は経済、脳、気候といった複雑なシステムを理解するのに不可欠である。
この研究は、因果グラフ生成のためのドメインエキスパートの代替として、LLM(Large Language Models)の能力を探求する。
論文 参考訳(メタデータ) (2024-06-11T15:45:24Z) - Federated Causal Discovery from Heterogeneous Data [70.31070224690399]
任意の因果モデルと異種データに対応する新しいFCD法を提案する。
これらのアプローチには、データのプライバシを保護するために、生データのプロキシとして要約統計を構築することが含まれる。
提案手法の有効性を示すために, 合成および実データを用いた広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-02-20T18:53:53Z) - Discovering and Reasoning of Causality in the Hidden World with Large Language Models [109.62442253177376]
我々はCausal representatiOn AssistanT(COAT)と呼ばれる新しいフレームワークを開発し、因果発見に有用な測定変数を提案する。
大規模言語モデル (LLM) と因果関係を直接推論する代わりに、COAT は中間因果発見結果から LLM へのフィードバックを構築し、提案した変数を洗練させる。
論文 参考訳(メタデータ) (2024-02-06T12:18:54Z) - Multi-modal Causal Structure Learning and Root Cause Analysis [67.67578590390907]
根本原因局所化のためのマルチモーダル因果構造学習手法であるMulanを提案する。
ログ選択言語モデルを利用してログ表現学習を行い、ログシーケンスを時系列データに変換する。
また、モダリティの信頼性を評価し、最終因果グラフを共同学習するための新しいキーパフォーマンスインジケータ対応アテンション機構も導入する。
論文 参考訳(メタデータ) (2024-02-04T05:50:38Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Active Bayesian Causal Inference [72.70593653185078]
因果発見と推論を統合するための完全ベイズ能動学習フレームワークであるアクティブベイズ因果推論(ABCI)を提案する。
ABCIは因果関係のモデルと関心のクエリを共同で推論する。
我々のアプローチは、完全な因果グラフの学習のみに焦点を当てた、いくつかのベースラインよりも、よりデータ効率が高いことを示す。
論文 参考訳(メタデータ) (2022-06-04T22:38:57Z) - Principled Knowledge Extrapolation with GANs [92.62635018136476]
我々は,知識外挿の新たな視点から,対実合成を研究する。
本稿では, 知識外挿問題に対処するために, クローズド形式判別器を用いた対角ゲームが利用可能であることを示す。
提案手法は,多くのシナリオにおいて,エレガントな理論的保証と優れた性能の両方を享受する。
論文 参考訳(メタデータ) (2022-05-21T08:39:42Z) - Uncovering Main Causalities for Long-tailed Information Extraction [14.39860866665021]
データセットの選択バイアスによって引き起こされる長い尾の分布は、誤った相関をもたらす可能性がある。
これは、データの背後にある主な因果関係を明らかにすることを目的とした、新しいフレームワークである。
論文 参考訳(メタデータ) (2021-09-11T08:08:24Z) - Incorporating Causal Graphical Prior Knowledge into Predictive Modeling
via Simple Data Augmentation [92.96204497841032]
因果グラフ(CG)は、データ分散の背後にあるデータ生成プロセスの知識のコンパクトな表現である。
本研究では,条件付き独立性(CI)関係の事前知識を活用可能なモデルに依存しないデータ拡張手法を提案する。
本手法は,小データシステムにおける予測精度の向上に有効であることを実験的に示した。
論文 参考訳(メタデータ) (2021-02-27T06:13:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。