論文の概要: BED-LLM: Intelligent Information Gathering with LLMs and Bayesian Experimental Design
- arxiv url: http://arxiv.org/abs/2508.21184v1
- Date: Thu, 28 Aug 2025 19:51:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 19:45:10.863737
- Title: BED-LLM: Intelligent Information Gathering with LLMs and Bayesian Experimental Design
- Title(参考訳): BED-LLM:LLMを用いた知的情報収集とベイズ実験設計
- Authors: Deepro Choudhury, Sinead Williamson, Adam Goliński, Ning Miao, Freddie Bickford Smith, Michael Kirchhof, Yizhe Zhang, Tom Rainforth,
- Abstract要約: BED-LLM (Bayesian Experimental Design with Large Language Models) と呼ぶ。
興味のあるタスクに関する期待情報ゲイン(EIG)を最大化する質問を反復的に選択する。
BED-LLMは,20問ゲームに基づく幅広いテストにおいて,大幅な性能向上を実現していることがわかった。
- 参考スコア(独自算出の注目度): 20.03498575187842
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a general-purpose approach for improving the ability of Large Language Models (LLMs) to intelligently and adaptively gather information from a user or other external source using the framework of sequential Bayesian experimental design (BED). This enables LLMs to act as effective multi-turn conversational agents and interactively interface with external environments. Our approach, which we call BED-LLM (Bayesian Experimental Design with Large Language Models), is based on iteratively choosing questions or queries that maximize the expected information gain (EIG) about the task of interest given the responses gathered previously. We show how this EIG can be formulated in a principled way using a probabilistic model derived from the LLM's belief distribution and provide detailed insights into key decisions in its construction. Further key to the success of BED-LLM are a number of specific innovations, such as a carefully designed estimator for the EIG, not solely relying on in-context updates for conditioning on previous responses, and a targeted strategy for proposing candidate queries. We find that BED-LLM achieves substantial gains in performance across a wide range of tests based on the 20-questions game and using the LLM to actively infer user preferences, compared to direct prompting of the LLM and other adaptive design strategies.
- Abstract(参考訳): 本稿では,BED(シーケンシャルベイズ実験設計)の枠組みを用いて,ユーザや外部からの情報をインテリジェントかつ適応的に収集する,LLM(Large Language Models)の機能向上のための汎用的アプローチを提案する。
これにより、LLMは効果的なマルチターン対話エージェントとして機能し、外部環境と対話的に対話できる。
BED-LLM (Bayesian Experimental Design with Large Language Models) と呼ばれる我々のアプローチは、以前に収集した応答に対する関心のタスクについて、期待される情報ゲイン(EIG)を最大化する質問やクエリを反復的に選択することに基づいている。
LLMの信念分布から導かれる確率モデルを用いて、このEIGを原則的に定式化する方法を示し、その構築における重要な決定に関する詳細な知見を提供する。
BED-LLMの成功の鍵は、EIGの慎重に設計された推定器、以前のレスポンスを条件付けするためのコンテキスト内更新のみに依存するのではなく、候補クエリを提案するためのターゲット戦略など、いくつかの特定のイノベーションである。
BED-LLM は LLM や他の適応設計戦略の直接的プロンプトに比べて, 20-クエストゲームと LLM を用いたユーザの嗜好を積極的に推し進めるため, 幅広いテストにおいて, 大幅な性能向上を実現していることがわかった。
関連論文リスト
- A Survey on the Optimization of Large Language Model-based Agents [16.733092886211097]
大規模言語モデル(LLM)は様々な分野で広く採用されており、自律的な意思決定や対話的なタスクに欠かせないものとなっている。
しかしながら、現在の作業は通常、バニラLLMに適用された迅速な設計や微調整戦略に依存している。
LLMに基づくエージェント最適化手法の総合的なレビューを行い、パラメータ駆動型およびパラメータフリーな手法に分類する。
論文 参考訳(メタデータ) (2025-03-16T10:09:10Z) - Optimizing Knowledge Integration in Retrieval-Augmented Generation with Self-Selection [72.92366526004464]
Retrieval-Augmented Generation (RAG) は、Large Language Models (LLM) がより正確で信頼性の高い応答を生成するのに有効であることが証明されている。
本稿では,自己選択型RAGフレームワークを提案する。このフレームワークでは,内部パラメトリック知識のみで生成されたペアの応答からLLMを選択できる。
論文 参考訳(メタデータ) (2025-02-10T04:29:36Z) - Reason4Rec: Large Language Models for Recommendation with Deliberative User Preference Alignment [69.11529841118671]
本稿では,ユーザの嗜好に関する明確な推論を新たなアライメント目標として組み込んだ,新たなDeliberative Recommendationタスクを提案する。
次にReasoningを利用したRecommenderフレームワークを導入する。
論文 参考訳(メタデータ) (2025-02-04T07:17:54Z) - SelectLLM: Query-Aware Efficient Selection Algorithm for Large Language Models [8.558834738072363]
大規模言語モデル(LLM)は、様々なアプリケーションにまたがる顕著な性能のために広く採用されている。
これらの個々のLCMは、固有のトレーニングバイアス、モデルサイズ制約、トレーニング前のデータセットの品質や多様性による、複雑なタスクの一般化とパフォーマンスの制限を示す。
本稿では,入力クエリをLLMの最も適切なサブセットに効率的に誘導するSelectLLMを紹介する。
論文 参考訳(メタデータ) (2024-08-16T06:11:21Z) - Fine-Tuning Large Vision-Language Models as Decision-Making Agents via Reinforcement Learning [79.38140606606126]
強化学習(RL)を用いた視覚言語モデル(VLM)を微調整するアルゴリズムフレームワークを提案する。
我々のフレームワークはタスク記述を提供し、次にVLMにチェーン・オブ・シント(CoT)推論を生成するよう促す。
提案手法は,VLMエージェントの様々なタスクにおける意思決定能力を向上させる。
論文 参考訳(メタデータ) (2024-05-16T17:50:19Z) - Unlocking the Potential of User Feedback: Leveraging Large Language
Model as User Simulator to Enhance Dialogue System [65.93577256431125]
本稿では,ユーザガイド応答最適化 (UGRO) という代替手法を提案し,タスク指向の対話モデルと組み合わせる。
このアプローチでは、アノテーションのないユーザシミュレータとしてLLMを使用して対話応答を評価し、より小型のエンドツーエンドTODモデルと組み合わせる。
提案手法は従来のSOTA(State-of-the-art)よりも優れている。
論文 参考訳(メタデータ) (2023-06-16T13:04:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。