論文の概要: DiscoverLLM: From Executing Intents to Discovering Them
- arxiv url: http://arxiv.org/abs/2602.03429v1
- Date: Tue, 03 Feb 2026 11:51:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.430674
- Title: DiscoverLLM: From Executing Intents to Discovering Them
- Title(参考訳): DiscoverLLM: インテントの実行からテーマの発見まで
- Authors: Tae Soo Kim, Yoonjoo Lee, Jaesang Yu, John Joon Young Chung, Juho Kim,
- Abstract要約: DiscoverLLMは,ユーザが意図を形作り,発見するのを助けるために,大規模言語モデルを訓練するフレームワークである。
結果モデルでは、意図が不明な場合には、適応的に(選択肢を探求する)ことで、ユーザとのコラボレーションを学ぶ。
75人の被験者を対象にしたユーザスタディにおいて、DiscoverLLMはベースラインと比較して会話の満足度と効率を改善した。
- 参考スコア(独自算出の注目度): 30.142994019166796
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To handle ambiguous and open-ended requests, Large Language Models (LLMs) are increasingly trained to interact with users to surface intents they have not yet expressed (e.g., ask clarification questions). However, users are often ambiguous because they have not yet formed their intents: they must observe and explore outcomes to discover what they want. Simply asking "what kind of tone do you want?" fails when users themselves do not know. We introduce DiscoverLLM, a novel and generalizable framework that trains LLMs to help users form and discover their intents. Central to our approach is a novel user simulator that models cognitive state with a hierarchy of intents that progressively concretize as the model surfaces relevant options -- where the degree of concretization serves as a reward signal that models can be trained to optimize. Resulting models learn to collaborate with users by adaptively diverging (i.e., explore options) when intents are unclear, and converging (i.e., refine and implement) when intents concretize. Across proposed interactive benchmarks in creative writing, technical writing, and SVG drawing, DiscoverLLM achieves over 10% higher task performance while reducing conversation length by up to 40%. In a user study with 75 human participants, DiscoverLLM improved conversation satisfaction and efficiency compared to baselines.
- Abstract(参考訳): 曖昧でオープンな要求に対処するために、Large Language Models(LLM)は、ユーザがまだ表現していない意図(例えば、明確化の質問)を提示するように、ますます訓練されている。
しかしながら、ユーザは意図をまだ形成していないため、しばしば曖昧である。
という質問をするだけで、ユーザ自身が知らない時に失敗します。
本稿では,ユーザが意図を形作り,発見するのを助けるためにLCMをトレーニングする,斬新で一般化可能なフレームワークであるDiscoverLLMを紹介する。
私たちのアプローチの中心は、モデルが関連する選択肢を表面化するにつれて徐々に増大する意図の階層を持つ認知状態をモデル化する、新しいユーザシミュレータです。
結果モデルでは、意図が不明確であれば(選択肢を探索する)適応的に分散し、意図が複雑化すれば(洗練し、実装する)収束することで、ユーザとのコラボレーションを学ぶ。
DiscoverLLMは、クリエイティブな書き込み、テクニカルライティング、SVG描画におけるインタラクティブなベンチマークを提案し、会話の長さを最大40%削減しながら10%以上のタスクパフォーマンスを達成する。
75人の被験者を対象にしたユーザスタディにおいて、DiscoverLLMはベースラインと比較して会話の満足度と効率を改善した。
関連論文リスト
- Mind the Gap! Static and Interactive Evaluations of Large Audio Models [55.87220295533817]
大型オーディオモデル(LAM)は、音声ネイティブな体験をパワーアップするために設計されている。
本研究は,484名の参加者から,LAMを評価し,7,500名のLAMインタラクションを収集する対話的アプローチを提案する。
論文 参考訳(メタデータ) (2025-02-21T20:29:02Z) - IntentGPT: Few-shot Intent Discovery with Large Language Models [9.245106106117317]
我々は、新たな意図が現れると識別できるモデルを開発する。
IntentGPTは、Large Language Models (LLM) を効果的に促し、最小限のラベル付きデータで新しいインテントを発見する、トレーニング不要の手法である。
実験の結果,IntentGPTはドメイン固有データと微調整を必要とする従来の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-11-16T02:16:59Z) - Unified Dual-Intent Translation for Joint Modeling of Search and Recommendation [44.59113848489519]
We propose a novel model named Unified Dual-Intents Translation for joint modeling of Search and Recommendation (UDITSR)。
ユーザの推奨する要求意図を正確にシミュレートするために,検索データからの実際のクエリを監視情報として利用し,その生成をガイドする。
大規模な実験では、UDITSRは検索とレコメンデーションの両方においてSOTAベースラインを上回っている。
論文 参考訳(メタデータ) (2024-07-01T02:36:03Z) - RecExplainer: Aligning Large Language Models for Explaining Recommendation Models [50.74181089742969]
大規模言語モデル (LLM) は、理解、推論、指導において顕著な知性を示した。
本稿では, ブラックボックスレコメンデータモデルを説明するために, LLM を代理モデルとして利用することについて検討する。
効果的なアライメントを容易にするために,行動アライメント,意図アライメント,ハイブリッドアライメントという3つの手法を導入する。
論文 参考訳(メタデータ) (2023-11-18T03:05:43Z) - Knowledge-Augmented Large Language Models for Personalized Contextual
Query Suggestion [16.563311988191636]
我々は,Web上での検索と閲覧活動に基づいて,各ユーザを対象としたエンティティ中心の知識ストアを構築した。
この知識ストアは、公的な知識グラフ上の興味と知識のユーザ固有の集約予測のみを生成するため、軽量である。
論文 参考訳(メタデータ) (2023-11-10T01:18:47Z) - Eliciting Human Preferences with Language Models [56.68637202313052]
言語モデル(LM)は、ラベル付き例や自然言語のプロンプトを使用してターゲットタスクを実行するように指示することができる。
タスク仕様プロセスのガイドには*LM自身を使うことを提案します。
我々は、メール検証、コンテンツレコメンデーション、道徳的推論の3つの領域でGATEを研究している。
論文 参考訳(メタデータ) (2023-10-17T21:11:21Z) - Latent User Intent Modeling for Sequential Recommenders [92.66888409973495]
逐次リコメンデータモデルは、プラットフォーム上での氏のインタラクション履歴に基づいて、ユーザが次に対話する可能性のあるアイテムを予測することを学習する。
しかし、ほとんどのシーケンシャルなレコメンデータは、ユーザの意図に対する高いレベルの理解を欠いている。
したがって、インテントモデリングはユーザー理解と長期ユーザーエクスペリエンスの最適化に不可欠である。
論文 参考訳(メタデータ) (2022-11-17T19:00:24Z) - DIGMN: Dynamic Intent Guided Meta Network for Differentiated User
Engagement Forecasting in Online Professional Social Platforms [32.70471436337077]
ユーザエンゲージメントパターンの違いの大きな理由は、ユーザが異なる意図を持っていることだ。
本稿では動的ガイドメタネットワーク(DIGMN)を提案する。
我々の手法は最先端のベースラインを大幅に上回る。
論文 参考訳(メタデータ) (2022-10-22T09:57:27Z) - Intent Contrastive Learning for Sequential Recommendation [86.54439927038968]
ユーザの意図を表現するために潜伏変数を導入し,クラスタリングにより潜伏変数の分布関数を学習する。
我々は,学習意図を対照的なSSLによってSRモデルに活用し,シーケンスのビューとそれに対応するインテントとの一致を最大化することを提案する。
4つの実世界のデータセットで実施された実験は、提案した学習パラダイムの優位性を示している。
論文 参考訳(メタデータ) (2022-02-05T09:24:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。