論文の概要: BED-LLM: Intelligent Information Gathering with LLMs and Bayesian Experimental Design
- arxiv url: http://arxiv.org/abs/2508.21184v2
- Date: Sat, 18 Oct 2025 23:14:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:38.528405
- Title: BED-LLM: Intelligent Information Gathering with LLMs and Bayesian Experimental Design
- Title(参考訳): BED-LLM:LLMを用いた知的情報収集とベイズ実験設計
- Authors: Deepro Choudhury, Sinead Williamson, Adam Goliński, Ning Miao, Freddie Bickford Smith, Michael Kirchhof, Yizhe Zhang, Tom Rainforth,
- Abstract要約: 本稿では,ユーザや外部ソースから情報を知的かつ適応的に収集するLarge Language Models (LLM) の能力向上のための汎用的アプローチを提案する。
BED-LLMと呼ばれる我々のアプローチは、期待される情報獲得を最大化する質問を反復的に選択することに基づいている。
BED-LLMは,20の質問ゲームに基づいて,様々なテストにおいて,大幅な性能向上を実現している。
- 参考スコア(独自算出の注目度): 20.03498575187842
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a general-purpose approach for improving the ability of Large Language Models (LLMs) to intelligently and adaptively gather information from a user or other external source using the framework of sequential Bayesian experimental design (BED). This enables LLMs to act as effective multi-turn conversational agents and interactively interface with external environments. Our approach, which we call BED-LLM (Bayesian Experimental Design with Large Language Models), is based on iteratively choosing questions or queries that maximize the expected information gain (EIG) about the task of interest given the responses gathered previously. We show how this EIG can be formulated (and then estimated) in a principled way using a probabilistic model derived from the LLM's predictive distributions and provide detailed insights into key decisions in its construction and updating procedure. We find that BED-LLM achieves substantial gains in performance across a wide range of tests based on the 20 questions game and using the LLM to actively infer user preferences, compared to direct prompting of the LLM and other adaptive design strategies.
- Abstract(参考訳): 本稿では,BED(シーケンシャルベイズ実験設計)の枠組みを用いて,ユーザや外部からの情報をインテリジェントかつ適応的に収集する,LLM(Large Language Models)の能力向上のための汎用的アプローチを提案する。
これにより、LLMは効果的なマルチターン対話エージェントとして機能し、外部環境と対話的に対話できる。
BED-LLM (Bayesian Experimental Design with Large Language Models) と呼ばれる我々のアプローチは、以前に収集した応答に対する関心のタスクについて、期待される情報ゲイン(EIG)を最大化する質問やクエリを反復的に選択することに基づいている。
LLMの予測分布から導かれる確率モデルを用いて、このEIGをどのように定式化(そして推定)するかを示し、その構築および更新手順における重要な決定に関する詳細な知見を提供する。
BED-LLM は LLM や他の適応設計戦略の直接的推進に比べて, 20 の質問ゲームと LLM を用いたユーザの嗜好を積極的に推し進めることにより, 幅広いテストにおいて大幅な性能向上を実現していることがわかった。
関連論文リスト
- Training-Free Active Learning Framework in Materials Science with Large Language Models [1.7173772511677432]
大規模言語モデル(LLM)は、事前訓練された知識と普遍的なトークンベースの表現を活用することで、新しいパラダイムを提供する。
本稿では, LLM をベースとしたアクティブラーニングフレームワーク (LLM-AL) について紹介する。
論文 参考訳(メタデータ) (2025-11-24T21:46:29Z) - LLM-as-a-Judge: Toward World Models for Slate Recommendation Systems [5.310303349822993]
本研究では,Large Language Models (LLM) がスレート上でのペア推論を通じて,ユーザ嗜好の世界モデルとして機能するかを検討する。
この結果から,LLMが取得した選好関数の特性とタスク性能の関係が明らかになった。
論文 参考訳(メタデータ) (2025-11-06T16:54:54Z) - NaViL: Rethinking Scaling Properties of Native Multimodal Large Language Models under Data Constraints [100.02131897927484]
本稿では,Multimodal Large Language Models(MLLM)のエンドツーエンドなネイティブトレーニングに焦点を当てる。
そこで我々は,NaViLと呼ばれるネイティブMLLMと,シンプルで費用対効果の高いレシピを組み合わせて提案する。
14のマルチモーダルベンチマークによる実験結果から,既存のMLLMに対するNaViLの競合性能が確認された。
論文 参考訳(メタデータ) (2025-10-09T17:59:37Z) - IDA-Bench: Evaluating LLMs on Interactive Guided Data Analysis [60.32962597618861]
IDA-Benchは、多ラウンドの対話シナリオで大規模言語モデルを評価する新しいベンチマークである。
エージェント性能は、最終的な数値出力と人間由来のベースラインを比較して判断する。
最先端のコーディングエージェント(Claude-3.7-thinkingなど)でさえ50%のタスクを成功させ、シングルターンテストでは明らかでない制限を強調している。
論文 参考訳(メタデータ) (2025-05-23T09:37:52Z) - INFERENCEDYNAMICS: Efficient Routing Across LLMs through Structured Capability and Knowledge Profiling [44.309917620936474]
InferenceDynamicsは、モデルの能力と知識をモデル化することによって、柔軟でスケーラブルな多次元ルーティングフレームワークである。
包括的データセットであるRouteMixで運用し、グループレベルのルーティングの有効性と一般化性を実証する。
論文 参考訳(メタデータ) (2025-05-22T06:56:51Z) - A Survey on the Optimization of Large Language Model-based Agents [16.733092886211097]
大規模言語モデル(LLM)は様々な分野で広く採用されており、自律的な意思決定や対話的なタスクに欠かせないものとなっている。
しかしながら、現在の作業は通常、バニラLLMに適用された迅速な設計や微調整戦略に依存している。
LLMに基づくエージェント最適化手法の総合的なレビューを行い、パラメータ駆動型およびパラメータフリーな手法に分類する。
論文 参考訳(メタデータ) (2025-03-16T10:09:10Z) - Optimizing Knowledge Integration in Retrieval-Augmented Generation with Self-Selection [72.92366526004464]
Retrieval-Augmented Generation (RAG) は、Large Language Models (LLM) がより正確で信頼性の高い応答を生成するのに有効であることが証明されている。
本稿では,自己選択型RAGフレームワークを提案する。このフレームワークでは,内部パラメトリック知識のみで生成されたペアの応答からLLMを選択できる。
論文 参考訳(メタデータ) (2025-02-10T04:29:36Z) - Reason4Rec: Large Language Models for Recommendation with Deliberative User Preference Alignment [69.11529841118671]
本稿では,ユーザの嗜好に関する明確な推論を新たなアライメント目標として組み込んだ,新たなDeliberative Recommendationタスクを提案する。
次にReasoningを利用したRecommenderフレームワークを導入する。
論文 参考訳(メタデータ) (2025-02-04T07:17:54Z) - LLM-based Bi-level Multi-interest Learning Framework for Sequential Recommendation [54.396000434574454]
本稿では,暗黙的行動と明示的意味論的視点を組み合わせた新しい多目的SRフレームワークを提案する。
Implicit Behavioral Interest ModuleとExplicit Semantic Interest Moduleの2つのモジュールが含まれている。
4つの実世界のデータセットの実験は、フレームワークの有効性と実用性を検証する。
論文 参考訳(メタデータ) (2024-11-14T13:00:23Z) - SelectLLM: Query-Aware Efficient Selection Algorithm for Large Language Models [8.558834738072363]
大規模言語モデル(LLM)は、様々なアプリケーションにまたがる顕著な性能のために広く採用されている。
これらの個々のLCMは、固有のトレーニングバイアス、モデルサイズ制約、トレーニング前のデータセットの品質や多様性による、複雑なタスクの一般化とパフォーマンスの制限を示す。
本稿では,入力クエリをLLMの最も適切なサブセットに効率的に誘導するSelectLLMを紹介する。
論文 参考訳(メタデータ) (2024-08-16T06:11:21Z) - Fine-Tuning Large Vision-Language Models as Decision-Making Agents via Reinforcement Learning [79.38140606606126]
強化学習(RL)を用いた視覚言語モデル(VLM)を微調整するアルゴリズムフレームワークを提案する。
我々のフレームワークはタスク記述を提供し、次にVLMにチェーン・オブ・シント(CoT)推論を生成するよう促す。
提案手法は,VLMエージェントの様々なタスクにおける意思決定能力を向上させる。
論文 参考訳(メタデータ) (2024-05-16T17:50:19Z) - Unlocking the Potential of User Feedback: Leveraging Large Language
Model as User Simulator to Enhance Dialogue System [65.93577256431125]
本稿では,ユーザガイド応答最適化 (UGRO) という代替手法を提案し,タスク指向の対話モデルと組み合わせる。
このアプローチでは、アノテーションのないユーザシミュレータとしてLLMを使用して対話応答を評価し、より小型のエンドツーエンドTODモデルと組み合わせる。
提案手法は従来のSOTA(State-of-the-art)よりも優れている。
論文 参考訳(メタデータ) (2023-06-16T13:04:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。