論文の概要: LLM-Driven Preference Data Synthesis for Proactive Prediction of the Next User Utterance in Human-Machine Dialogue
- arxiv url: http://arxiv.org/abs/2601.09713v1
- Date: Wed, 24 Dec 2025 12:23:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-25 16:54:51.68853
- Title: LLM-Driven Preference Data Synthesis for Proactive Prediction of the Next User Utterance in Human-Machine Dialogue
- Title(参考訳): LLM-Driven Preference Data Synthesis for Proactive Prediction of the Next User Utterance in Human-Machine Dialogue
- Authors: Jinqiang Wang, Huansheng Ning, Jianguo Ding, Tao Zhu, Liming Chen, Chris Nugent,
- Abstract要約: ProUttは、積極的に次の発話を予測するためのLLM駆動の嗜好データ合成法である。
対話履歴をインテントツリーに変換し、インテント推論軌跡を明示的にモデル化する。
次に、異なる将来のターンでインテントツリーパスを摂動または修正することで、選好および非参照推論プロセスを構築する。
- 参考スコア(独自算出の注目度): 10.08256631711306
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Proactively predicting a users next utterance in human-machine dialogue can streamline interaction and improve user experience. Existing commercial API-based solutions are subject to privacy concerns while deploying general-purpose LLMs locally remains computationally expensive. As such, training a compact, task-specific LLM provides a practical alternative. Although user simulator methods can predict a user's next utterance, they mainly imitate their speaking style rather than advancing the dialogue. Preference data synthesis has been investigated to generate data for proactive next utterance prediction and help align LLMs with user preferences. Yet existing methods lack the ability to explicitly model the intent reasoning that leads to the user's next utterance and to define and synthesize preference and non-preference reasoning processes for predicting the user's next utterance.To address these challenges, we propose ProUtt, an LLM-driven preference data synthesis method for proactive next utterance prediction. ProUtt converts dialogue history into an intent tree and explicitly models intent reasoning trajectories by predicting the next plausible path from both exploitation and exploration perspectives. It then constructs preference and non-preference reasoning processes by perturbing or revising intent tree paths at different future turns. Extensive evaluations using LLM-as-a-judge and human judgments demonstrate that ProUtt consistently outperforms existing data synthesis methods, user simulators, and commercial LLM APIs across four benchmark datasets. We release both the code and the synthesized datasets to facilitate future research.
- Abstract(参考訳): ヒューマンマシン対話におけるユーザの次の発話を積極的に予測することは、インタラクションの合理化とユーザエクスペリエンスの向上を可能にする。
既存の商用APIベースのソリューションは、プライバシの懸念にさらされる一方で、汎用LLMをローカルにデプロイする場合でも、計算コストは高くつく。
そのため、コンパクトでタスク固有のLLMをトレーニングすることは、実用的な代替手段となる。
ユーザシミュレーター手法はユーザの次の発話を予測できるが、対話を前進させるのではなく、主に話し方を模倣する。
優先データ合成は, ユーザの好みに合わせて, アクティブな次の発話予測のためのデータを生成し, LLMの調整を支援するために研究されている。
しかし,既存の手法では,ユーザの次の発話につながる意図的推論を明示的にモデル化し,ユーザの次の発話を予測するための選好や非選好推論プロセスを定義・合成する能力が欠けており,これらの課題に対処するために,LLMによる次の発話を積極的に予測するための選好データ合成手法であるProUttを提案する。
ProUttは対話履歴をインテントツリーに変換し、エクスプロイトと探索の両方の観点から次のもっともらしい経路を予測することによって、意図的推論軌道を明示的にモデル化する。
次に、異なる将来のターンでインテントツリーパスを摂動または修正することで、選好および非参照推論プロセスを構築する。
LLM-as-a-judgeと人的判断を用いた大規模な評価は、ProUttが4つのベンチマークデータセットで既存のデータ合成方法、ユーザシミュレータ、商用LLM APIを一貫して上回っていることを示している。
将来の研究を容易にするために、コードと合成データセットの両方をリリースします。
関連論文リスト
- Investigating Thematic Patterns and User Preferences in LLM Interactions using BERTopic [4.087884819027264]
本研究では,Lumsys-chat-1mデータセットに対してBERTopicを適用した。
主な目的は、これらの会話におけるテーマパターンを明らかにし、ユーザの好みとの関係を調べることである。
トピックとモデル嗜好の関係を分析し,モデルとトピックのアライメントの傾向を明らかにした。
論文 参考訳(メタデータ) (2025-10-08T21:13:44Z) - A Data Synthesis Method Driven by Large Language Models for Proactive Mining of Implicit User Intentions in Tourism [6.387945824899046]
観光分野では、Large Language Models (LLM) は観光客の曖昧な問い合わせから暗黙のユーザー意図を掘り下げるのに苦労することが多い。
中国観光サイトから収集したシードデータに基づいて対話をシミュレートするLLM駆動型ユーザエージェントとアシスタントエージェントを構築するSynPTを提案する。
論文 参考訳(メタデータ) (2025-05-14T02:36:17Z) - Align-SLM: Textless Spoken Language Models with Reinforcement Learning from AI Feedback [50.84142264245052]
テキストレス音声言語モデル(SLM)のセマンティック理解を強化するためのAlign-SLMフレームワークを導入する。
提案手法は、与えられたプロンプトから複数の音声継続を生成し、意味的指標を用いて、直接選好最適化(DPO)のための選好データを生成する。
語彙および構文モデリングのためのZeroSpeech 2021ベンチマーク、意味的コヒーレンスのためのStoryClozeデータセットの音声バージョン、GPT4-oスコアや人間評価などの音声生成指標を用いて、フレームワークの評価を行った。
論文 参考訳(メタデータ) (2024-11-04T06:07:53Z) - ELCoRec: Enhance Language Understanding with Co-Propagation of Numerical and Categorical Features for Recommendation [38.64175351885443]
大規模言語モデルは自然言語処理(NLP)領域で栄えている。
レコメンデーション指向の微調整モデルによって示された知性にもかかわらず、LLMはユーザーの行動パターンを完全に理解するのに苦労している。
既存の作業は、その重要な情報を導入することなく、与えられたテキストデータに対してのみLLMを微調整するだけである。
論文 参考訳(メタデータ) (2024-06-27T01:37:57Z) - On Overcoming Miscalibrated Conversational Priors in LLM-based Chatbots [19.423566424346166]
本研究では,Large Language Model (LLM) ベースのチャットボットを用いて推薦システムを構築する。
チャットボットが不特定要求に遭うと、応答が悪くなるのを観察する。
我々は,このような誤った応答傾向は,アノテータを用いたLPM微調整に起因していると推測する。
論文 参考訳(メタデータ) (2024-06-01T15:54:45Z) - Lusifer: LLM-based User SImulated Feedback Environment for online Recommender systems [0.0]
強化学習(RL)レコメンデータシステムは、現実のシナリオにおけるユーザの好みの性質を変えることなく、流体をキャプチャできない静的データセットに依存することが多い。
LLMベースのシミュレーション環境であるLulsiferを導入し、RLベースのレコメンデータトレーニングのための動的で現実的なユーザフィードバックを生成する。
論文 参考訳(メタデータ) (2024-05-22T05:43:15Z) - Can LLMs Generate Human-Like Wayfinding Instructions? Towards Platform-Agnostic Embodied Instruction Synthesis [51.04181562775778]
本稿では,ロボットエージェントの「ウェイフィンディング指示」を自動的に合成する手法を提案する。
提案アルゴリズムは,LLMの条件付けにコンテキスト内学習を用い,わずかな参照を用いて命令を生成する。
我々は,Matterport3D,AI Habitat,ThreeDWorldなど,複数のシミュレーションプラットフォームにアプローチを実装した。
論文 参考訳(メタデータ) (2024-03-18T05:38:07Z) - Generative Context-aware Fine-tuning of Self-supervised Speech Models [54.389711404209415]
生成型大規模言語モデル(LLM)生成コンテキスト情報の利用について検討する。
自己教師型音声モデルの微調整中に生成した情報を抽出する手法を提案する。
本稿では,SLUE と Libri-light のベンチマークを用いて,自動音声認識,名前付きエンティティ認識,感情分析を行う手法を提案する。
論文 参考訳(メタデータ) (2023-12-15T15:46:02Z) - On the steerability of large language models toward data-driven personas [98.9138902560793]
大規模言語モデル(LLM)は、特定のグループや集団の意見が不足している偏りのある応答を生成することが知られている。
本稿では, LLM を用いて特定の視点の制御可能な生成を実現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T19:01:13Z) - Unlocking the Potential of User Feedback: Leveraging Large Language
Model as User Simulator to Enhance Dialogue System [65.93577256431125]
本稿では,ユーザガイド応答最適化 (UGRO) という代替手法を提案し,タスク指向の対話モデルと組み合わせる。
このアプローチでは、アノテーションのないユーザシミュレータとしてLLMを使用して対話応答を評価し、より小型のエンドツーエンドTODモデルと組み合わせる。
提案手法は従来のSOTA(State-of-the-art)よりも優れている。
論文 参考訳(メタデータ) (2023-06-16T13:04:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。