論文の概要: Bayesian Network Structure Discovery Using Large Language Models
- arxiv url: http://arxiv.org/abs/2511.00574v1
- Date: Sat, 01 Nov 2025 14:32:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.847171
- Title: Bayesian Network Structure Discovery Using Large Language Models
- Title(参考訳): 大規模言語モデルを用いたベイズネットワーク構造探索
- Authors: Yinghuan Zhang, Yufei Zhang, Parisa Kordjamshidi, Zijun Cui,
- Abstract要約: ベイジアンネットワーク構造発見のための統一的なフレームワークを提案する。
当社のフレームワークでは,データフリーとデータアウェア設定の両方をサポートする大規模言語モデル(LLM)を中心に置いています。
実験により,本手法は従来のLCM手法と従来のデータ駆動アルゴリズムの両方に優れていた。
- 参考スコア(独自算出の注目度): 27.478536621589345
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding probabilistic relationships among variables is crucial for analyzing complex systems. Traditional structure learning methods often require extensive observational data and incur high computational costs. Recent studies have explored using large language models (LLMs) for structure learning, but most treat LLMs as auxiliary tools for pre-processing or post-processing, leaving the core learning process data-driven. In this work, we propose a unified framework for Bayesian network structure discovery that places LLMs at the center, supporting both data-free and data-aware settings. In the data-free case, we introduce \textbf{PromptBN} to query LLMs with metadata and efficiently uncover valid probabilistic relationships. When observational data are available, we introduce \textbf{ReActBN}, which integrates the ReAct reasoning paradigm with structure scores such as the Bayesian Information Criterion (BIC) for iterative refinement. Unlike prior methods that offload refinement to external algorithms, our framework maintains the LLM actively in the loop throughout the discovery process. Experiments demonstrate that our method significantly outperforms both existing LLM-based approaches and traditional data-driven algorithms, particularly in the low- or no-data scenario. Code is publicly available at {\texttt{\textcolor{magenta}{https://github.com/sherryzyh/prompt2bn}}}.
- Abstract(参考訳): 変数間の確率的関係を理解することは、複雑なシステムを分析する上で重要である。
伝統的な構造学習法は、しばしば広範な観測データを必要とし、高い計算コストを発生させる。
近年,構造学習に大規模言語モデル (LLM) を用いることが検討されているが,LLMを前処理や後処理の補助ツールとして扱う場合が多く,コア学習プロセスはデータ駆動である。
本研究では,LLMを中心に配置し,データフリーとデータアウェア設定の両方をサポートするベイズネットワーク構造探索のための統一的なフレームワークを提案する。
データフリーの場合、LLMにメタデータを照会し、有効な確率関係を効率的に発見するために、textbf{PromptBN}を導入します。
本稿では,ReAct推論パラダイムをベイズ情報基準(BIC)などの構造スコアと統合し,反復的精査を行う。
外部アルゴリズムに改良をオフロードする従来の手法とは異なり、我々のフレームワークは発見プロセスを通してLLMをループ内に積極的に維持する。
実験により,本手法は従来のLCM手法と従来のデータ駆動アルゴリズムの両方,特に低・非データシナリオにおいて有意に優れていた。
コードは {\texttt{\textcolor{magenta}{https://github.com/sherryzyh/prompt2bn}}} で公開されている。
関連論文リスト
- How Data Inter-connectivity Shapes LLMs Unlearning: A Structural Unlearning Perspective [29.924482732745954]
既存のアプローチでは、忘れられるべきデータポイントは独立であり、接続性を無視していると仮定している。
構造データセットをコンパイルする手法であるPISTOLを提案する。
論文 参考訳(メタデータ) (2024-06-24T17:22:36Z) - LLM Inference Unveiled: Survey and Roofline Model Insights [62.92811060490876]
大規模言語モデル(LLM)推論は急速に進化しており、機会と課題のユニークなブレンドを提示している。
本調査は, 研究状況を要約するだけでなく, 屋上モデルに基づく枠組みを導入することによって, 従来の文献レビューから際立っている。
このフレームワークは、ハードウェアデバイスにLSMをデプロイする際のボトルネックを特定し、実用上の問題を明確に理解する。
論文 参考訳(メタデータ) (2024-02-26T07:33:05Z) - StructGPT: A General Framework for Large Language Model to Reason over
Structured Data [117.13986738340027]
我々は,構造化データに基づく質問応答タスクの解法として,emphIterative Reading-then-Reasoning(IRR)アプローチを開発した。
提案手法はChatGPTの性能を大幅に向上させ,全データの教師付きベースラインに対して同等のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-05-16T17:45:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。