論文の概要: Does TabPFN Understand Causal Structures?
- arxiv url: http://arxiv.org/abs/2511.07236v1
- Date: Mon, 10 Nov 2025 15:53:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.344102
- Title: Does TabPFN Understand Causal Structures?
- Title(参考訳): TabPFNは因果構造を理解しているか?
- Authors: Omar Swelam, Lennart Purucker, Jake Robertson, Hanne Raum, Joschka Boedecker, Frank Hutter,
- Abstract要約: 本研究では,TabPFNが内部表現に因果情報をエンコードするかどうかを検討する。
学習可能なデコーダと因果トークンを用いたアダプタフレームワークを開発した。
評価の結果,TabPFNの埋め込みには因果情報が含まれており,従来の因果発見アルゴリズムよりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 40.224180365241075
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Causal discovery is fundamental for multiple scientific domains, yet extracting causal information from real world data remains a significant challenge. Given the recent success on real data, we investigate whether TabPFN, a transformer-based tabular foundation model pre-trained on synthetic datasets generated from structural causal models, encodes causal information in its internal representations. We develop an adapter framework using a learnable decoder and causal tokens that extract causal signals from TabPFN's frozen embeddings and decode them into adjacency matrices for causal discovery. Our evaluations demonstrate that TabPFN's embeddings contain causal information, outperforming several traditional causal discovery algorithms, with such causal information being concentrated in mid-range layers. These findings establish a new direction for interpretable and adaptable foundation models and demonstrate the potential for leveraging pre-trained tabular models for causal discovery.
- Abstract(参考訳): 因果発見は複数の科学的領域において基礎的だが、実世界のデータから因果情報を抽出することは大きな課題である。
実データにおける最近の成功を踏まえ、構造因果モデルから生成された合成データセットに基づいて事前訓練された変換器ベースの表層基盤モデルであるTabPFNが、内部表現に因果情報をエンコードするかどうかを検討する。
本研究では,学習可能なデコーダと因果トークンを用いて,TabPFNの凍結埋め込みから因果信号を抽出し,因果発見のために隣接行列に復号するアダプタフレームワークを開発した。
評価の結果、TabPFNの埋め込みには因果情報が含まれており、従来の因果発見アルゴリズムよりも優れており、そのような因果情報が中層に集中していることが示されている。
これらの知見は、解釈可能で適応可能な基礎モデルの新たな方向性を確立し、因果発見に事前学習された表形式モデルを活用する可能性を実証する。
関連論文リスト
- TabINR: An Implicit Neural Representation Framework for Tabular Data Imputation [0.6407815281667869]
本稿では,テーブルをニューラルネットワークとしてモデル化する自動デコーダベースのImplicit Neural RepresentationフレームワークであるTabINRを紹介する。
我々は、現実世界の12のデータセットと複数の欠落メカニズムにまたがって、我々のフレームワークを評価した。
論文 参考訳(メタデータ) (2025-10-01T17:24:35Z) - A Survey on Deep Tabular Learning [0.0]
タブラルデータは、その不均一な性質と空間構造が欠如していることから、深層学習の独特な課題を提示する。
本調査では,早期完全接続ネットワーク(FCN)から,TabNet,SAINT,TabTranSELU,MambaNetといった先進アーキテクチャに至るまで,タブラルデータのディープラーニングモデルの進化を概観する。
論文 参考訳(メタデータ) (2024-10-15T20:08:08Z) - Discovering and Reasoning of Causality in the Hidden World with Large Language Models [109.62442253177376]
我々はCausal representatiOn AssistanT(COAT)と呼ばれる新しいフレームワークを開発し、因果発見に有用な測定変数を提案する。
大規模言語モデル (LLM) と因果関係を直接推論する代わりに、COAT は中間因果発見結果から LLM へのフィードバックを構築し、提案した変数を洗練させる。
論文 参考訳(メタデータ) (2024-02-06T12:18:54Z) - Causal disentanglement of multimodal data [1.589226862328831]
因果関係を持つ重要な特徴を発見するために,マルチモーダルデータと既知の物理を利用する因果表現学習アルゴリズム(causalPIMA)を導入する。
本研究は,完全教師なし環境下で重要な特徴を同時に発見しながら,解釈可能な因果構造を学習する能力を示すものである。
論文 参考訳(メタデータ) (2023-10-27T20:30:11Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - Federated Causal Discovery [74.37739054932733]
本稿では,DAG-Shared Federated Causal Discovery (DS-FCD) という勾配学習フレームワークを開発する。
ローカルデータに直接触れることなく因果グラフを学習し、データの不均一性を自然に扱うことができる。
合成および実世界の両方のデータセットに対する大規模な実験により,提案手法の有効性が検証された。
論文 参考訳(メタデータ) (2021-12-07T08:04:12Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z) - CausalVAE: Structured Causal Disentanglement in Variational Autoencoder [52.139696854386976]
変分オートエンコーダ(VAE)の枠組みは、観測から独立した因子をアンタングルするために一般的に用いられる。
本稿では, 因果内因性因子を因果内因性因子に変換する因果層を含むVOEベースの新しいフレームワークCausalVAEを提案する。
その結果、CausalVAEが学習した因果表現は意味論的に解釈可能であり、DAG(Directed Acyclic Graph)としての因果関係は精度良く同定された。
論文 参考訳(メタデータ) (2020-04-18T20:09:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。