論文の概要: OnGoal: Tracking and Visualizing Conversational Goals in Multi-Turn Dialogue with Large Language Models
- arxiv url: http://arxiv.org/abs/2508.21061v1
- Date: Thu, 28 Aug 2025 17:58:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:02.553664
- Title: OnGoal: Tracking and Visualizing Conversational Goals in Multi-Turn Dialogue with Large Language Models
- Title(参考訳): OnGoal:大規模言語モデルを用いた多言語対話における会話目標の追跡と可視化
- Authors: Adam Coscia, Shunan Guo, Eunyee Koh, Alex Endert,
- Abstract要約: 私たちは、ユーザーがゴールの進捗をよりよく管理するのに役立つLLMチャットインターフェースであるOnGoalを紹介します。
OnGoalは、LLMによる評価を通じて、ゴールアライメントに対するリアルタイムフィードバックを提供する。
OnGoalを使うことで、参加者は目標を達成するために時間と労力を減らした。
- 参考スコア(独自算出の注目度): 23.174462069020695
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As multi-turn dialogues with large language models (LLMs) grow longer and more complex, how can users better evaluate and review progress on their conversational goals? We present OnGoal, an LLM chat interface that helps users better manage goal progress. OnGoal provides real-time feedback on goal alignment through LLM-assisted evaluation, explanations for evaluation results with examples, and overviews of goal progression over time, enabling users to navigate complex dialogues more effectively. Through a study with 20 participants on a writing task, we evaluate OnGoal against a baseline chat interface without goal tracking. Using OnGoal, participants spent less time and effort to achieve their goals while exploring new prompting strategies to overcome miscommunication, suggesting tracking and visualizing goals can enhance engagement and resilience in LLM dialogues. Our findings inspired design implications for future LLM chat interfaces that improve goal communication, reduce cognitive load, enhance interactivity, and enable feedback to improve LLM performance.
- Abstract(参考訳): 大規模言語モデル(LLM)を用いたマルチターン対話がより長く複雑になるにつれて、ユーザーは会話目標の進捗をよりよく評価し、レビューできるだろうか?
私たちは、ユーザーがゴールの進捗をよりよく管理するのに役立つLLMチャットインターフェースであるOnGoalを紹介します。
OnGoalは、LCM支援評価によるゴールアライメントのリアルタイムフィードバック、例による評価結果の説明、時間の経過に伴うゴール進行の概要などを提供し、複雑な対話をより効果的にナビゲートすることを可能にする。
執筆作業の参加者20名を対象とした調査を通じて,目標追跡を伴わないベースラインチャットインタフェースに対して,OnGoalの評価を行った。
OnGoalを使用すると、参加者は目標達成の時間と労力を減らし、ミスコミュニケーションを克服するための新たなプロンプト戦略を模索し、目標の追跡と視覚化がLLM対話におけるエンゲージメントとレジリエンスを高めることを示唆する。
その結果,将来のLLMチャットインタフェースの設計にインスピレーションを与え,目標コミュニケーションの改善,認知負荷の低減,対話性の向上,LLM性能の向上のためのフィードバックの実現を実現した。
関連論文リスト
- DialogXpert: Driving Intelligent and Emotion-Aware Conversations through Online Value-Based Reinforcement Learning with LLM Priors [19.83349341267686]
大言語モデル(LLM)エージェントは、反応対話において優れるが、プロアクティブでゴール駆動的な相互作用に苦しむ。
提案するダイアログXpertは,各ターンごとに,小型で高品質な候補アクションセットを提案する。
ユーザの感情を追跡することで、DialogXpertは、真の共感的なつながりを育みながら、タスクを前進させる決定をそれぞれ調整する。
論文 参考訳(メタデータ) (2025-05-23T12:12:40Z) - Enhancing User-Oriented Proactivity in Open-Domain Dialogues with Critic Guidance [35.15965694815852]
オープンドメイン対話システムは自然な会話を生み出すことを目的としている。
既存の大きな言語モデル(LLM)は、ユーザのチャットの好みを積極的に理解できない。
ユーザ指向のプロアクティブ性を高めるために,ユーザ指向プロアクティブ(UPC)を提案する。
論文 参考訳(メタデータ) (2025-05-18T09:59:22Z) - Conversational User-AI Intervention: A Study on Prompt Rewriting for Improved LLM Response Generation [16.8514748768591]
本稿では,ユーザクエリが情報要求の表現に欠ける側面と,LLMを用いてサブ最適ユーザプロンプトを書き換える可能性について検討する。
本研究は, ユーザの本来の意図を保ちながら, 会話システムからより優れた応答を導き出すことができることを示す。
論文 参考訳(メタデータ) (2025-03-21T02:01:02Z) - SAGE: Steering Dialog Generation with Future-Aware State-Action Augmentation [9.95917154889491]
本稿では,潜時変数を用いた対話生成における長時間水平動作を制御するSAGEという新しい手法を提案する。
我々の手法の中核は、標準言語モデルの微調整を強化したState-Action Chain (SAC) である。
実験結果から,本手法を用いてトレーニングしたモデルでは,感情的インテリジェンス指標の性能が向上したことが示された。
論文 参考訳(メタデータ) (2025-03-04T22:45:24Z) - Evaluating Very Long-Term Conversational Memory of LLM Agents [95.84027826745609]
我々は,高品質で長期的な対話を生成するための,マシン・ヒューマン・パイプラインを導入する。
我々は、各エージェントに画像の共有と反応の能力を持たせる。
生成した会話は、長距離一貫性のために人間のアノテーションによって検証され、編集される。
論文 参考訳(メタデータ) (2024-02-27T18:42:31Z) - Think Before You Speak: Cultivating Communication Skills of Large Language Models via Inner Monologue [73.69510478736483]
大規模言語モデル(LLM)は、流動的で一貫性があり多様な応答を生成する。
しかし、それらは重要な能力、コミュニケーションスキルを欠いている。
本稿は,内的モノローグによるLLMのコミュニケーション能力向上を目的としている。
実験の結果,提案したCSIM戦略はバックボーンモデルを改善し,ベースラインよりも優れていた。
論文 参考訳(メタデータ) (2023-11-13T16:19:42Z) - Zero-Shot Goal-Directed Dialogue via RL on Imagined Conversations [70.7884839812069]
大規模言語モデル(LLM)は、多くの自然言語タスクに対する強力で一般的な解決策として登場した。
しかしながら、言語生成の最も重要なアプリケーションの多くは対話的であり、エージェントは望ましい結果に達するために相手と話し合わなければならない。
本研究では,そのような目標指向対話に対して,RLでLLMを適応させる新しい手法について検討する。
論文 参考訳(メタデータ) (2023-11-09T18:45:16Z) - Unlocking the Potential of User Feedback: Leveraging Large Language
Model as User Simulator to Enhance Dialogue System [65.93577256431125]
本稿では,ユーザガイド応答最適化 (UGRO) という代替手法を提案し,タスク指向の対話モデルと組み合わせる。
このアプローチでは、アノテーションのないユーザシミュレータとしてLLMを使用して対話応答を評価し、より小型のエンドツーエンドTODモデルと組み合わせる。
提案手法は従来のSOTA(State-of-the-art)よりも優れている。
論文 参考訳(メタデータ) (2023-06-16T13:04:56Z) - Rethinking the Evaluation for Conversational Recommendation in the Era
of Large Language Models [115.7508325840751]
近年の大規模言語モデル(LLM)の成功は、より強力な対話レコメンデーションシステム(CRS)を開発する大きな可能性を示している。
本稿では,ChatGPTの会話レコメンデーションへの活用について検討し,既存の評価プロトコルが不十分であることを明らかにする。
LLMをベースとしたユーザシミュレータを用いた対話型評価手法iEvaLMを提案する。
論文 参考訳(メタデータ) (2023-05-22T15:12:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。