論文の概要: LLM-BI: Towards Fully Automated Bayesian Inference with Large Language Models
- arxiv url: http://arxiv.org/abs/2508.08300v1
- Date: Thu, 07 Aug 2025 00:00:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.152939
- Title: LLM-BI: Towards Fully Automated Bayesian Inference with Large Language Models
- Title(参考訳): LLM-BI:大規模言語モデルを用いた完全自動ベイズ推論を目指して
- Authors: Yongchao Huang,
- Abstract要約: 本稿では,Large Language Model (LLM) を用いた事前分布と可能性の仕様の自動化の実現可能性について検討する。
概念実証として、ベイズ線形回帰に着目した2つの実験を示す。
ベイズモデルにおいて,LLMが重要なステップを自動生成する可能性を検証した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A significant barrier to the widespread adoption of Bayesian inference is the specification of prior distributions and likelihoods, which often requires specialized statistical expertise. This paper investigates the feasibility of using a Large Language Model (LLM) to automate this process. We introduce LLM-BI (Large Language Model-driven Bayesian Inference), a conceptual pipeline for automating Bayesian workflows. As a proof-of-concept, we present two experiments focused on Bayesian linear regression. In Experiment I, we demonstrate that an LLM can successfully elicit prior distributions from natural language. In Experiment II, we show that an LLM can specify the entire model structure, including both priors and the likelihood, from a single high-level problem description. Our results validate the potential of LLMs to automate key steps in Bayesian modeling, enabling the possibility of an automated inference pipeline for probabilistic programming.
- Abstract(参考訳): ベイズ推定を広く採用する上で重要な障壁は、しばしば専門的な統計的専門知識を必要とする事前分布と可能性の仕様である。
本稿では,Large Language Model (LLM) を用いてこのプロセスを自動化することの実現可能性について検討する。
LLM-BI(Large Language Model-driven Bayesian Inference)は,ベイジアンワークフローを自動化する概念パイプラインである。
概念実証として、ベイズ線形回帰に着目した2つの実験を示す。
実験Iでは,LLMが自然言語から事前分布を抽出できることが実証された。
実験IIでは、LLMが1つのハイレベルな問題記述から、事前と可能性の両方を含むモデル構造全体を特定可能であることを示す。
ベイジアンモデリングにおいて,LLMが重要なステップを自動化し,確率的プログラミングのための自動推論パイプラインの実現の可能性を検証する。
関連論文リスト
- Extracting Probabilistic Knowledge from Large Language Models for Bayesian Network Parameterization [22.286144400569007]
ベイジアンネットワーク(BN)構築におけるLLM(Large Language Models)の可能性について,ドメインエキスパートの事前の近似による検討を行った。
医療からファイナンスまで80の公開ベイズネットワークの実験は、事象の条件付き確率についてLLMに問い合わせることが有意義な結果をもたらすことを実証している。
論文 参考訳(メタデータ) (2025-05-21T18:15:05Z) - Bayesian Teaching Enables Probabilistic Reasoning in Large Language Models [50.16340812031201]
我々は,大規模言語モデル (LLM) がベイジアンフレームワークから期待されているように,その信念を更新しないことを示す。
我々は、最適ベイズモデルの予測を模倣するように訓練することで、ベイズ的な推論をLLMに教える。
論文 参考訳(メタデータ) (2025-03-21T20:13:04Z) - From Words to Actions: Unveiling the Theoretical Underpinnings of LLM-Driven Autonomous Systems [59.40480894948944]
大規模言語モデル (LLM) は、物理世界の意思決定問題を解くことができる。
このモデルの下で、LLM Plannerは、プロンプトを介して言語ベースのサブゴールを反復的に生成することにより、部分的に観測可能なマルコフ決定プロセス(POMDP)をナビゲートする。
我々は,事前学習したLLMプランナーが,文脈内学習を通じてベイズ的集計模倣学習(BAIL)を効果的に行うことを証明した。
論文 参考訳(メタデータ) (2024-05-30T09:42:54Z) - LLM Processes: Numerical Predictive Distributions Conditioned on Natural Language [35.84181171987974]
我々のゴールは、数値データを処理し、任意の場所で確率的予測を行うレグレッションモデルを構築することである。
まず、大規模言語モデルから明示的で一貫性のある数値予測分布を抽出する戦略を探求する。
本研究では,テキストを数値予測に組み込む能力を示し,予測性能を改善し,定性的な記述を反映した定量的な構造を与える。
論文 参考訳(メタデータ) (2024-05-21T15:13:12Z) - Amortizing intractable inference in large language models [56.92471123778389]
難治性後部分布のサンプルとして, 償却ベイズ推定を用いる。
我々は,LLMファインチューニングの分散マッチングパラダイムが,最大習熟の代替となることを実証的に実証した。
重要な応用として、チェーン・オブ・ソート推論を潜在変数モデリング問題として解釈する。
論文 参考訳(メタデータ) (2023-10-06T16:36:08Z) - ProbVLM: Probabilistic Adapter for Frozen Vision-Language Models [69.50316788263433]
本稿では,事前学習された視覚言語モデルの埋め込みに対する確率分布を推定する確率的アダプタProbVLMを提案する。
本稿では,検索タスクにおける不確実性埋め込みのキャリブレーションを定量化し,ProbVLMが他の手法よりも優れていることを示す。
本稿では,大規模な事前学習型潜伏拡散モデルを用いて,埋め込み分布を可視化する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-07-01T18:16:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。