論文の概要: Extracting Probabilistic Knowledge from Large Language Models for Bayesian Network Parameterization
- arxiv url: http://arxiv.org/abs/2505.15918v1
- Date: Wed, 21 May 2025 18:15:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:47.856555
- Title: Extracting Probabilistic Knowledge from Large Language Models for Bayesian Network Parameterization
- Title(参考訳): ベイジアンネットワークパラメータ化のための大規模言語モデルからの確率的知識の抽出
- Authors: Aliakbar Nafar, Kristen Brent Venable, Zijun Cui, Parisa Kordjamshidi,
- Abstract要約: LLM(Large Language Models)は、現実的な知識基盤としての可能性を示している。
本稿では, LLMにおける確率的知識を用いて, 事象に関する言明の確率推定を導出する。
- 参考スコア(独自算出の注目度): 22.286144400569007
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have demonstrated potential as factual knowledge bases; however, their capability to generate probabilistic knowledge about real-world events remains understudied. This paper investigates using probabilistic knowledge inherent in LLMs to derive probability estimates for statements concerning events and their interrelationships captured via a Bayesian Network (BN). Using LLMs in this context allows for the parameterization of BNs, enabling probabilistic modeling within specific domains. Experiments on eighty publicly available Bayesian Networks, from healthcare to finance, demonstrate that querying LLMs about the conditional probabilities of events provides meaningful results when compared to baselines, including random and uniform distributions, as well as approaches based on next-token generation probabilities. We explore how these LLM-derived distributions can serve as expert priors to refine distributions extracted from minimal data, significantly reducing systematic biases. Overall, this work introduces a promising strategy for automatically constructing Bayesian Networks by combining probabilistic knowledge extracted from LLMs with small amounts of real-world data. Additionally, we evaluate several prompting strategies for eliciting probabilistic knowledge from LLMs and establish the first comprehensive baseline for assessing LLM performance in extracting probabilistic knowledge.
- Abstract(参考訳): LLM(Large Language Models)は、現実の知識基盤としての可能性を示しているが、現実の出来事に関する確率論的知識を生成する能力はまだ検討されていない。
本稿では, LLMに固有の確率的知識を用いて, ベイジアンネットワーク(BN)を介して取得した事象とその相互関係について, 確率推定を導出する。
この文脈でLLMを使用することでBNのパラメータ化が可能になり、特定のドメイン内で確率的モデリングが可能になる。
医療からファイナンスまで、80の公開ベイズネットワークの実験では、イベントの条件付き確率に関するLLMのクエリは、ランダムな分布や均一な分布を含むベースラインや、次世代の確率に基づくアプローチと比較して有意義な結果をもたらすことを示した。
LLM由来の分布が、最小限のデータから抽出された分布を洗練し、系統的バイアスを著しく低減するために、どのように専門家として機能するかを考察する。
本研究は,LLMから抽出した確率的知識と少量の実世界のデータを組み合わせることで,ベイズネットワークを自動構築する有望な戦略を導入する。
さらに, LLMから確率的知識を引き出すためのいくつかの促進策を評価し, 確率的知識を抽出する上で, LLMの性能を評価するための総合的ベースラインを確立する。
関連論文リスト
- Exploring the Potential for Large Language Models to Demonstrate Rational Probabilistic Beliefs [12.489784979345654]
大規模言語モデル(LLM)の現在のバージョンには,確率論的信念の合理的かつ一貫性のある表現が欠如していることが示されている。
確率論的推論の基本的な性質に固執するLLMの能力を測定するために, 不確実性定量化のための確立された手法を適用した。
論文 参考訳(メタデータ) (2025-04-18T11:50:30Z) - Context is Key: A Benchmark for Forecasting with Essential Textual Information [87.3175915185287]
コンテキスト is Key" (CiK) は、数値データを多種多様なテキストコンテキストと組み合わせた予測ベンチマークである。
我々は,統計モデル,時系列基礎モデル,LLMに基づく予測モデルなど,さまざまなアプローチを評価する。
提案手法は,提案するベンチマークにおいて,他の試験手法よりも優れる簡易かつ効果的なLCMプロンプト法である。
論文 参考訳(メタデータ) (2024-10-24T17:56:08Z) - Amortized Bayesian Multilevel Models [9.831471158899644]
マルチレベルモデル(MLM)はベイズワークフローの中心的なビルディングブロックである。
MLMは重要な計算上の課題を生じさせ、しばしばその推定と評価は合理的な時間制約の中で難解である。
シミュレーションに基づく推論の最近の進歩は、深層生成ネットワークを用いた複雑な確率モデルに対処するための有望な解決策を提供する。
マルチレベルモデルの確率的因数分解を利用して、効率的なニューラルネットワークトレーニングと、未知のデータセットに対する後続の即時推論を容易にするニューラルネットワークアーキテクチャのファミリーを探索する。
論文 参考訳(メタデータ) (2024-08-23T17:11:04Z) - LLM Processes: Numerical Predictive Distributions Conditioned on Natural Language [35.84181171987974]
我々のゴールは、数値データを処理し、任意の場所で確率的予測を行うレグレッションモデルを構築することである。
まず、大規模言語モデルから明示的で一貫性のある数値予測分布を抽出する戦略を探求する。
本研究では,テキストを数値予測に組み込む能力を示し,予測性能を改善し,定性的な記述を反映した定量的な構造を与える。
論文 参考訳(メタデータ) (2024-05-21T15:13:12Z) - BIRD: A Trustworthy Bayesian Inference Framework for Large Language Models [52.46248487458641]
予測モデルは、現実世界のタスクで不完全な情報を扱う必要があることが多い。
現在の大規模言語モデル(LLM)は正確な推定には不十分である。
本稿では,新しい確率的推論フレームワークBIRDを提案する。
論文 参考訳(メタデータ) (2024-04-18T20:17:23Z) - Do LLMs Play Dice? Exploring Probability Distribution Sampling in Large Language Models for Behavioral Simulation [73.58618024960968]
人間のシーケンシャルな意思決定過程をエミュレートするエージェントとして、大きな言語モデル(LLM)を採用する研究が増えている。
このことは、確率分布を理解するためにLLMエージェントの容量に関する好奇心を喚起する。
分析の結果, LLM エージェントは確率を理解できるが, 確率サンプリングに苦慮していることがわかった。
論文 参考訳(メタデータ) (2024-04-13T16:59:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。