論文の概要: Can Large Language Models Help Experimental Design for Causal Discovery?
- arxiv url: http://arxiv.org/abs/2503.01139v2
- Date: Tue, 04 Mar 2025 04:19:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:21:22.646390
- Title: Can Large Language Models Help Experimental Design for Causal Discovery?
- Title(参考訳): 大規模言語モデルは因果発見のための実験設計に役立つか?
- Authors: Junyi Li, Yongqiang Chen, Chenxi Liu, Qianyi Cai, Tongliang Liu, Bo Han, Kun Zhang, Hui Xiong,
- Abstract要約: Large Language Model Guided Intervention Targeting (LeGIT) は、LLMを効果的に組み込んだ堅牢なフレームワークであり、因果発見のための介入のための既存の数値的アプローチを強化する。
LeGITは、既存の方法よりも大幅な改善と堅牢性を示し、人間を超越している。
- 参考スコア(独自算出の注目度): 94.66802142727883
- License:
- Abstract: Designing proper experiments and selecting optimal intervention targets is a longstanding problem in scientific or causal discovery. Identifying the underlying causal structure from observational data alone is inherently difficult. Obtaining interventional data, on the other hand, is crucial to causal discovery, yet it is usually expensive and time-consuming to gather sufficient interventional data to facilitate causal discovery. Previous approaches commonly utilize uncertainty or gradient signals to determine the intervention targets. However, numerical-based approaches may yield suboptimal results due to the inaccurate estimation of the guiding signals at the beginning when with limited interventional data. In this work, we investigate a different approach, whether we can leverage Large Language Models (LLMs) to assist with the intervention targeting in causal discovery by making use of the rich world knowledge about the experimental design in LLMs. Specifically, we present Large Language Model Guided Intervention Targeting (LeGIT) -- a robust framework that effectively incorporates LLMs to augment existing numerical approaches for the intervention targeting in causal discovery. Across 4 realistic benchmark scales, LeGIT demonstrates significant improvements and robustness over existing methods and even surpasses humans, which demonstrates the usefulness of LLMs in assisting with experimental design for scientific discovery.
- Abstract(参考訳): 適切な実験を設計し、最適な介入ターゲットを選択することは、科学的または因果的な発見において長年続く問題である。
観測データのみから根底にある因果構造を特定することは本質的に困難である。
一方、介入データを取得することは因果発見に不可欠であるが、因果発見を促進するのに十分な介入データを集めるのには通常高価で時間がかかる。
従来のアプローチでは、介入対象を決定するために不確実性信号や勾配信号が一般的であった。
しかし、数値に基づくアプローチは、介入データに制限された場合の誘導信号の不正確な推定により、準最適結果が得られる可能性がある。
本研究では,LLMにおける実験設計に関する豊富な知識を生かして,大規模言語モデル(LLM)を用いて因果探索の介入を支援する方法を検討する。
具体的には,Large Language Model Guided Intervention Targeting (LeGIT)について述べる。
現実的な4つのベンチマークスケールで、LeGITは既存の方法よりも大幅に改善され、人間よりも頑健であることを示し、科学的な発見のための実験設計を支援するためのLLMの有用性を示している。
関連論文リスト
- Regularized Multi-LLMs Collaboration for Enhanced Score-based Causal Discovery [13.654021365091305]
我々は,大言語モデル(LLM)を用いて因果発見アプローチを強化する可能性を探る。
本稿では,1つのLLMだけでなく複数のLLMのキャパシティを活用して発見プロセスを増強する汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-27T01:56:21Z) - LLM-initialized Differentiable Causal Discovery [0.0]
異なる因果発見法(DCD)は、観測データから因果関係を明らかにするのに有効である。
しかしながら、これらのアプローチは限定的な解釈可能性に悩まされ、ドメイン固有の事前知識を取り入れる際の課題に直面します。
本稿では,Large Language Models(LLM)に基づく因果探索手法を提案する。
論文 参考訳(メタデータ) (2024-10-28T15:43:31Z) - CAnDOIT: Causal Discovery with Observational and Interventional Data from Time-Series [4.008958683836471]
CAnDOITは、観測データと介入データの両方を用いて因果モデルを再構築する因果発見手法である。
因果解析における介入データの利用は、ロボット工学のような現実世界の応用には不可欠である。
CAnDOITのPython実装も開発され、GitHubで公開されている。
論文 参考訳(メタデータ) (2024-10-03T13:57:08Z) - Targeted Cause Discovery with Data-Driven Learning [66.86881771339145]
本稿では,観測結果から対象変数の因果変数を推定する機械学習手法を提案する。
我々は、シミュレートされたデータの教師あり学習を通じて因果関係を特定するために訓練されたニューラルネットワークを用いる。
大規模遺伝子制御ネットワークにおける因果関係の同定における本手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-08-29T02:21:11Z) - Discovery of the Hidden World with Large Language Models [95.58823685009727]
本稿では,大きな言語モデル(LLM)を導入してギャップを埋めるCausal representatiOn AssistanT(COAT)を提案する。
LLMは世界中の大規模な観測に基づいて訓練されており、構造化されていないデータから重要な情報を抽出する優れた能力を示している。
COATはまた、特定変数間の因果関係を見つけるためにCDを採用し、提案された要因を反復的に洗練するためにLSMにフィードバックを提供する。
論文 参考訳(メタデータ) (2024-02-06T12:18:54Z) - Trust Your $\nabla$: Gradient-based Intervention Targeting for Causal Discovery [49.084423861263524]
本稿では,GIT を短縮した新しいグラディエント型インターベンションターゲティング手法を提案する。
GITは、介入獲得関数の信号を提供するために勾配に基づく因果探索フレームワークの勾配推定器を「信頼」する。
我々はシミュレーションおよび実世界のデータセットで広範な実験を行い、GITが競合するベースラインと同等に動作することを示す。
論文 参考訳(メタデータ) (2022-11-24T17:04:45Z) - Active Learning for Optimal Intervention Design in Causal Models [11.294389953686945]
本研究は、最適介入を特定するための因果的アクティブラーニング戦略を開発し、分布のインターベンショナル平均と所望の目標平均との相違によって測定した。
本研究では、Perturb-CITE-seq実験から得られた合成データと単細胞転写データの両方にアプローチを適用し、特定の細胞状態遷移を誘導する最適な摂動を同定する。
論文 参考訳(メタデータ) (2022-09-10T20:40:30Z) - Interventions, Where and How? Experimental Design for Causal Models at
Scale [47.63842422086614]
観測データと介入データからの因果発見は、限られたデータと非識別性のために困難である。
本稿では,ベイジアン因果発見の最近の進歩を,ベイジアン最適実験設計フレームワークに取り入れる。
本稿では, 線形および非線形SCMの合成グラフと, シリコン内単一細胞遺伝子制御ネットワークデータセットであるDREAMの性能について述べる。
論文 参考訳(メタデータ) (2022-03-03T20:59:04Z) - Learning Neural Causal Models with Active Interventions [83.44636110899742]
本稿では,データ生成プロセスの根底にある因果構造を素早く識別する能動的介入ターゲット機構を提案する。
本手法は,ランダムな介入ターゲティングと比較して,要求される対話回数を大幅に削減する。
シミュレーションデータから実世界のデータまで,複数のベンチマークにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-06T13:10:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。