論文の概要: HOLOGRAPH: Active Causal Discovery via Sheaf-Theoretic Alignment of Large Language Model Priors
- arxiv url: http://arxiv.org/abs/2512.24478v1
- Date: Tue, 30 Dec 2025 21:47:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.497661
- Title: HOLOGRAPH: Active Causal Discovery via Sheaf-Theoretic Alignment of Large Language Model Priors
- Title(参考訳): HOLOGRAPH: 大規模言語モデルのせん断理論アライメントによる能動的因果発見
- Authors: Hyunjun Kim,
- Abstract要約: HOLOGRAPHは、大規模言語モデルに基づく因果発見を形式化するフレームワークである。
我々の重要な洞察は、コヒーレントなグローバル因果構造は、グローバルセクションの存在に対応することである。
合成および実世界のベンチマークの実験は、HOLOGRAPHが厳密な数学的基礎を提供することを示した。
- 参考スコア(独自算出の注目度): 12.969042037563971
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Causal discovery from observational data remains fundamentally limited by identifiability constraints. Recent work has explored leveraging Large Language Models (LLMs) as sources of prior causal knowledge, but existing approaches rely on heuristic integration that lacks theoretical grounding. We introduce HOLOGRAPH, a framework that formalizes LLM-guided causal discovery through sheaf theory--representing local causal beliefs as sections of a presheaf over variable subsets. Our key insight is that coherent global causal structure corresponds to the existence of a global section, while topological obstructions manifest as non-vanishing sheaf cohomology. We propose the Algebraic Latent Projection to handle hidden confounders and Natural Gradient Descent on the belief manifold for principled optimization. Experiments on synthetic and real-world benchmarks demonstrate that HOLOGRAPH provides rigorous mathematical foundations while achieving competitive performance on causal discovery tasks with 50-100 variables. Our sheaf-theoretic analysis reveals that while Identity, Transitivity, and Gluing axioms are satisfied to numerical precision (<10^{-6}), the Locality axiom fails for larger graphs, suggesting fundamental non-local coupling in latent variable projections. Code is available at [https://github.com/hyunjun1121/holograph](https://github.com/hyunjun1121/holograph).
- Abstract(参考訳): 観測データからの因果発見は、識別可能性の制約によって基本的に制限されている。
最近の研究は、従来の因果的知識の源泉としてLarge Language Models (LLMs)を活用することを検討したが、既存のアプローチは理論的な根拠を持たないヒューリスティックな統合に依存している。
本稿では, LLM誘導型因果発見をせん断理論により定式化するフレームワークであるHOLOGRAPHを紹介した。
我々の重要な洞察は、コヒーレントな大局的な因果構造がグローバルな部分の存在に対応しているのに対し、トポロジ上の障害は非消滅的なせん断コホモロジーとして表されるということである。
本稿では, 代数的潜在射影法を提案し, 原理的最適化のための信念多様体上の隠れた共同創設者と自然なグラディエントDescentを扱う。
合成および実世界のベンチマーク実験により、HOLOGRAPHは50-100変数の因果発見タスクにおける競合性能を達成しつつ、厳密な数学的基礎を提供することが示された。
我々のせん断理論解析により、アイデンティティ、トランジシティ、グルーイング公理は数値的精度で満たされているが、局所性公理はより大きなグラフに対して失敗し、潜在変数射影における基本的な非局所的カップリングが示唆される。
コードは[https://github.com/hyunjun1121/holograph](https://github.com/hyunjun1121/holograph]で入手できる。
関連論文リスト
- The Causal Round Trip: Generating Authentic Counterfactuals by Eliminating Information Loss [4.166536642958902]
構造再構成誤差(SRE)を除去して因果音を発生させる最初の拡散型フレームワークであるBELM-MDCMを紹介する。
我々の研究は、古典的因果論の厳密さと近代的な生成モデルのパワーを調和させる。
論文 参考訳(メタデータ) (2025-11-07T13:37:23Z) - TopInG: Topologically Interpretable Graph Learning via Persistent Rationale Filtration [10.830399323047265]
TopInG: Topologically Interpretable Graph Learning を提案する。
TopInGは、有理グラフの自動回帰生成過程をモデル化するために、有理フィルタ学習アプローチを採用している。
本手法は,予測精度と解釈品質の両面において最先端の手法を改良する。
論文 参考訳(メタデータ) (2025-10-06T17:59:44Z) - HypoChainer: A Collaborative System Combining LLMs and Knowledge Graphs for Hypothesis-Driven Scientific Discovery [4.020865072189471]
人間の専門知識、知識グラフ、推論を統合した可視化フレームワークであるPhyChainerを提案する。
hypoChainerは3つの段階で機能する: 第一、探索、文脈化 -- 専門家は検索強化LLM(RAG)と次元縮小を使用する。
第2に、仮説連鎖の形成 -- 専門家は予測と意味論的に関連付けられたエンティティに関するKG関係を反復的に検討する。
第三に、検証の優先順位付け -- 洗練された仮説は、KGが支持する証拠に基づいてフィルタリングされ、実験のための優先度の高い候補を特定する。
論文 参考訳(メタデータ) (2025-07-23T05:02:54Z) - Can Large Language Models Help Experimental Design for Causal Discovery? [94.66802142727883]
Large Language Model Guided Intervention Targeting (LeGIT) は、LLMを効果的に組み込んだ堅牢なフレームワークであり、因果発見のための介入のための既存の数値的アプローチを強化する。
LeGITは、既存の方法よりも大幅な改善と堅牢性を示し、人間を超越している。
論文 参考訳(メタデータ) (2025-03-03T03:43:05Z) - Retrieving Classes of Causal Orders with Inconsistent Knowledge Bases [0.8192907805418583]
大規模言語モデル(LLM)は、テキストベースのメタデータから因果的知識を抽出するための有望な代替手段として登場した。
LLMは信頼できない傾向があり、幻覚を起こす傾向があり、その限界を考慮に入れた戦略を必要とする。
本稿では,非循環型トーナメントのクラスを導出する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-12-18T16:37:51Z) - Graph Stochastic Neural Process for Inductive Few-shot Knowledge Graph Completion [63.68647582680998]
I-FKGC(inductive few-shot knowledge graph completion)と呼ばれる課題に焦点をあてる。
帰納的推論(inductive reasoning)の概念に着想を得て,I-FKGCを帰納的推論問題とした。
本稿では,仮説の連成分布をモデル化したニューラルプロセスに基づく仮説抽出器を提案する。
第2のモジュールでは、この仮説に基づいて、クエリセットのトリプルが抽出された仮説と一致するかどうかをテストするグラフアテンションベースの予測器を提案する。
論文 参考訳(メタデータ) (2024-08-03T13:37:40Z) - SpaRC and SpaRP: Spatial Reasoning Characterization and Path Generation for Understanding Spatial Reasoning Capability of Large Language Models [70.01883340129204]
空間推論は 生物学的と人工知能の両方において 重要な要素です
本稿では,現在最先端の大規模言語モデル (LLM) の空間的推論能力について包括的に検討する。
論文 参考訳(メタデータ) (2024-06-07T01:06:34Z) - Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - Discovering and Reasoning of Causality in the Hidden World with Large Language Models [109.62442253177376]
我々はCausal representatiOn AssistanT(COAT)と呼ばれる新しいフレームワークを開発し、因果発見に有用な測定変数を提案する。
大規模言語モデル (LLM) と因果関係を直接推論する代わりに、COAT は中間因果発見結果から LLM へのフィードバックを構築し、提案した変数を洗練させる。
論文 参考訳(メタデータ) (2024-02-06T12:18:54Z) - Identifiable Latent Polynomial Causal Models Through the Lens of Change [82.14087963690561]
因果表現学習は、観測された低レベルデータから潜在的な高レベル因果表現を明らかにすることを目的としている。
主な課題の1つは、識別可能性(identifiability)として知られるこれらの潜伏因果モデルを特定する信頼性の高い保証を提供することである。
論文 参考訳(メタデータ) (2023-10-24T07:46:10Z) - Integrating Large Language Model for Improved Causal Discovery [25.50313039584238]
大規模言語モデル(LLM)は、様々なドメイン固有のシナリオの因果解析に使われてきた。
エラー耐性 LLM による因果発見フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-29T12:48:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。