論文の概要: Asking Clarifying Questions for Preference Elicitation With Large Language Models
- arxiv url: http://arxiv.org/abs/2510.12015v1
- Date: Mon, 13 Oct 2025 23:32:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 19:02:32.117949
- Title: Asking Clarifying Questions for Preference Elicitation With Large Language Models
- Title(参考訳): 大規模言語モデルを用いた嗜好の緩和に関する質問
- Authors: Ali Montazeralghaem, Guy Tennenholtz, Craig Boutilier, Ofer Meshi,
- Abstract要約: 大規模言語モデル(LLM)は、オープンエンドの対話インタフェースでユーザと対話するリコメンデーションシステムを実現する。
ユーザの好みを明らかにするシーケンシャルな質問に対して,LLMをトレーニングするための新しいアプローチを提案する。
- 参考スコア(独自算出の注目度): 19.809978521730855
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have made it possible for recommendation systems to interact with users in open-ended conversational interfaces. In order to personalize LLM responses, it is crucial to elicit user preferences, especially when there is limited user history. One way to get more information is to present clarifying questions to the user. However, generating effective sequential clarifying questions across various domains remains a challenge. To address this, we introduce a novel approach for training LLMs to ask sequential questions that reveal user preferences. Our method follows a two-stage process inspired by diffusion models. Starting from a user profile, the forward process generates clarifying questions to obtain answers and then removes those answers step by step, serving as a way to add ``noise'' to the user profile. The reverse process involves training a model to ``denoise'' the user profile by learning to ask effective clarifying questions. Our results show that our method significantly improves the LLM's proficiency in asking funnel questions and eliciting user preferences effectively.
- Abstract(参考訳): 大規模言語モデル(LLM)は、オープンエンドの対話インタフェースでユーザと対話するリコメンデーションシステムを実現する。
LLM応答をパーソナライズするためには,特にユーザ履歴が限られている場合に,ユーザの好みを抽出することが重要である。
より多くの情報を得る1つの方法は、明確な質問をユーザに提示することです。
しかし、諸藩にまたがる効果的な逐次的質問の生成は依然として課題である。
そこで本研究では,LCMを学習し,ユーザの嗜好を明らかにするシーケンシャルな質問を行う手法を提案する。
本手法は拡散モデルにインスパイアされた2段階のプロセスに従う。
ユーザプロファイルから開始すると、フォワードプロセスは、回答を得るための明確な質問を生成し、その回答をステップごとに削除し、ユーザプロファイルに ``noise'' を追加する方法として機能する。
逆のプロセスでは、ユーザプロファイルを‘デノエーズ’するためにモデルをトレーニングし、効果的に明確な質問をすることを学ぶ。
その結果,本手法は,ファンネル質問やユーザの嗜好を効果的に導き出す上で,LCMの習熟度を著しく向上させることがわかった。
関連論文リスト
- User Feedback in Human-LLM Dialogues: A Lens to Understand Users But Noisy as a Learning Signal [59.120335322495436]
ユーザ-LLM会話ログのユーザフィードバックを分析し、そのようなフィードバックの発生時期と理由について考察する。
第2に、このような暗黙のユーザフィードバックから学習信号を抽出することについて研究する。
論文 参考訳(メタデータ) (2025-07-30T23:33:29Z) - Know Me, Respond to Me: Benchmarking LLMs for Dynamic User Profiling and Personalized Responses at Scale [51.9706400130481]
大規模言語モデル(LLM)は、幅広いタスクでユーザのためのパーソナライズされたアシスタントとして登場した。
PERSONAMEMは180以上のユーザ-LLMインタラクション履歴を持つキュレートされたユーザプロファイルを備えている。
LLMチャットボットのユーザプロファイルの現在状況に応じて,最も適切な応答を識別する能力を評価する。
論文 参考訳(メタデータ) (2025-04-19T08:16:10Z) - Modeling Future Conversation Turns to Teach LLMs to Ask Clarifying Questions [45.04582353648683]
大規模言語モデル(LLM)は、しばしば非常にあいまいなユーザー要求に応答しなければならない。
既存のLLMは、そのような曖昧な要求の単一解釈を前提とすることで、異なる解釈を意図したユーザーをいらいらさせる。
今後,期待する結果をシミュレーションして選好ラベルを提案する。
これによってLLMは、将来の順番で各ユーザの解釈に合わせた応答を生成することができるのか、明確な質問を学べるようになる。
論文 参考訳(メタデータ) (2024-10-17T17:29:04Z) - CLARINET: Augmenting Language Models to Ask Clarification Questions for Retrieval [52.134133938779776]
CLARINETは,回答が正しい候補の確実性を最大化する質問を選択することで,情報的明確化を問うシステムである。
提案手法は,大規模言語モデル(LLM)を検索分布の条件付きで拡張し,各ターンで真の候補のランクを最大化する問題を生成する。
論文 参考訳(メタデータ) (2024-04-28T18:21:31Z) - Relative Preference Optimization: Enhancing LLM Alignment through Contrasting Responses across Identical and Diverse Prompts [95.09994361995389]
Relative Preference Optimization (RPO) は、同一のプロンプトと関連するプロンプトの両方から、より多く、あまり好まれない応答を識別するように設計されている。
RPOは、大きな言語モデルをユーザの好みに合わせて調整し、トレーニングプロセスにおける適応性を改善する優れた能力を示している。
論文 参考訳(メタデータ) (2024-02-12T22:47:57Z) - Active Preference Inference using Language Models and Probabilistic Reasoning [13.523369679010685]
本稿では,大規模言語モデルによるユーザの嗜好の推測を支援する推論時アルゴリズムを提案する。
我々のアルゴリズムは, LLM を誘導することで条件分布が定義される確率モデルを用いている。
実商品を用いた簡易な対話型Webショッピング設定の結果, エントロピー低減アルゴリズムを備えたLCMは, ベースラインよりも優れていた。
論文 参考訳(メタデータ) (2023-12-19T09:58:54Z) - Generating Usage-related Questions for Preference Elicitation in Conversational Recommender Systems [19.950705852361565]
項目使用量に基づいて暗黙的な質問を行うことにより、嗜好の誘惑に対する新しいアプローチを提案する。
クラウドソーシングを用いた高品質なラベル付きトレーニングデータセットを開発した。
本手法は,限られたトレーニングデータであっても,エレキュベーション質問を発生させるのに有効であることを示す。
論文 参考訳(メタデータ) (2021-11-26T12:23:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。