論文の概要: Broaden your SCOPE! Efficient Multi-turn Conversation Planning for LLMs using Semantic Space
- arxiv url: http://arxiv.org/abs/2503.11586v1
- Date: Fri, 14 Mar 2025 16:55:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-17 13:04:34.780289
- Title: Broaden your SCOPE! Efficient Multi-turn Conversation Planning for LLMs using Semantic Space
- Title(参考訳): SCOPEを広める! 意味空間を用いたLLMの効率的なマルチターン対話計画
- Authors: Zhiliang Chen, Xinyuan Niu, Chuan-Sheng Foo, Bryan Kian Hsiang Low,
- Abstract要約: 本稿では,効率を向上したセマンティック空間会話計画(SCOPE)という新しい手法を提案する。
SCOPEは会話の密接なセマンティック表現を利用して効率的に会話計画を行う。
その結果、SCOPEは従来のシミュレーションベースの計画アルゴリズムの70倍の速さで会話計画を行うことができる。
- 参考スコア(独自算出の注目度): 40.91931801667421
- License:
- Abstract: Large language models (LLMs) are used in chatbots or AI assistants to hold conversations with a human user. In such applications, the quality (e.g., user engagement, safety) of a conversation is important and can only be exactly known at the end of the conversation. To maximize its expected quality, conversation planning reasons about the stochastic transitions within a conversation to select the optimal LLM response at each turn. Existing simulation-based conversation planning algorithms typically select the optimal response by simulating future conversations with a large number of LLM queries at every turn. However, this process is extremely time-consuming and hence impractical for real-time conversations. This paper presents a novel approach called Semantic space COnversation Planning with improved Efficiency (SCOPE) that exploits the dense semantic representation of conversations to perform conversation planning efficiently. In particular, SCOPE models the stochastic transitions in conversation semantics and their associated rewards to plan entirely within the semantic space. This allows us to select the optimal LLM response at every conversation turn without needing additional LLM queries for simulation. As a result, SCOPE can perform conversation planning 70 times faster than conventional simulation-based planning algorithms when applied to a wide variety of conversation starters and two reward functions seen in the real world, yet achieving a higher reward within a practical planning budget. Our code can be found at: https://github.com/chenzhiliang94/convo-plan-SCOPE.
- Abstract(参考訳): 大規模言語モデル(LLM)は、チャットボットやAIアシスタントで人間のユーザと会話するために使用される。
このようなアプリケーションでは、会話の品質(例えば、ユーザエンゲージメント、安全性)が重要であり、会話の最後にしか正確に知ることができない。
その期待品質を最大化するために、会話内の確率的遷移に関する会話計画の理由を考慮し、各ターンで最適なLLM応答を選択する。
既存のシミュレーションベースの会話計画アルゴリズムは、通常、各ターンに多数のLLMクエリで将来の会話をシミュレートすることで、最適な応答を選択する。
しかし、このプロセスは非常に時間がかかるため、リアルタイムの会話には実用的ではない。
本稿では,会話の密接なセマンティック表現を活用し,効率的に会話計画を行うセマンティック空間会話計画(SCOPE)を提案する。
特にSCOPEは、会話のセマンティクスにおける確率的遷移とその関連する報酬をモデル化し、セマンティクス空間内で計画する。
これにより、シミュレーションにLLMクエリを追加することなく、各会話ターンで最適なLLM応答を選択することができる。
その結果、SCOPEは、様々な会話開始者や現実世界で見られる2つの報酬関数に適用した場合、従来のシミュレーションベースの計画アルゴリズムの70倍の速さで会話計画を行うことができるが、実用的な計画予算では高い報酬を得ることができる。
私たちのコードは、https://github.com/chenzhiliang94/convo-plan-SCOPE.com/。
関連論文リスト
- Beyond the Turn-Based Game: Enabling Real-Time Conversations with Duplex Models [66.24055500785657]
従来のターンベースのチャットシステムは、ユーザが応答を生成している間に、システムが言葉で対話することを防ぐ。
これらの制限を克服するため,既存のLCMをユーザを聴きながら出力を生成し,ユーザに対して即時フィードバックを提供する。
クエリとレスポンスの時間スライスを交互に行うデータセットを構築し、インスタントインタラクションにおける典型的なフィードバックタイプをカバーする。
論文 参考訳(メタデータ) (2024-06-22T03:20:10Z) - Learning to Clarify: Multi-turn Conversations with Action-Based Contrastive Self-Training [33.57497419019826]
アクションベースのコントラスト自己学習は、多ターン会話におけるサンプル効率のよい対話ポリシー学習を可能にする。
ACTは、教師付き微調整とDPOのための標準的なアプローチよりも、相当な会話モデリングの改善を示す。
論文 参考訳(メタデータ) (2024-05-31T22:44:48Z) - MathChat: Benchmarking Mathematical Reasoning and Instruction Following in Multi-Turn Interactions [58.57255822646756]
本稿では,大規模言語モデル (LLM) を評価するためのベンチマークであるMathChatを紹介する。
我々は,MathChatベンチマーク上での様々なSOTA LLMの性能評価を行い,これらのモデルが単ターン質問応答において優れているが,より複雑なシナリオでは性能が著しく劣っていることを観察した。
我々は,LLMファインタニングのための合成対話に基づく数学データセットであるMathChat syncを開発した。
論文 参考訳(メタデータ) (2024-05-29T18:45:55Z) - Effective and Efficient Conversation Retrieval for Dialogue State Tracking with Implicit Text Summaries [48.243879779374836]
LLM (Large Language Models) を用いたDST (Few-shot dialogue state tracking) では,会話検索を効果的かつ効率的に行うことで,学習の迅速化を図っている。
従来は検索キーやクエリとして生の対話コンテキストを使用していた。
会話のテキスト要約に基づいて会話検索を行う。
LLMに基づく会話要約器がクエリとキー生成に採用され、効果的な内部製品探索が可能となる。
論文 参考訳(メタデータ) (2024-02-20T14:31:17Z) - Generalizing Conversational Dense Retrieval via LLM-Cognition Data Augmentation [25.578440131793858]
既存の会話高密度検索モデルは、主に会話を質問や回答の固定シーケンスとして見る。
本稿では,LLM認識データ拡張(ConvAug)による会話高密度検索の一般化のためのフレームワークを提案する。
人間の認知にインスパイアされた私たちは、偽陽性、偽陰性、幻覚の発生を緩和する認知認識プロセスを考案した。
論文 参考訳(メタデータ) (2024-02-11T03:27:22Z) - Zero-Shot Goal-Directed Dialogue via RL on Imagined Conversations [70.7884839812069]
大規模言語モデル(LLM)は、多くの自然言語タスクに対する強力で一般的な解決策として登場した。
しかしながら、言語生成の最も重要なアプリケーションの多くは対話的であり、エージェントは望ましい結果に達するために相手と話し合わなければならない。
本研究では,そのような目標指向対話に対して,RLでLLMを適応させる新しい手法について検討する。
論文 参考訳(メタデータ) (2023-11-09T18:45:16Z) - Recursively Summarizing Enables Long-Term Dialogue Memory in Large
Language Models [75.98775135321355]
長い会話をすると、大きな言語モデル(LLM)は過去の情報を思い出さず、一貫性のない応答を生成する傾向がある。
本稿では,長期記憶能力を高めるために,大規模言語モデル(LLM)を用いて要約/メモリを生成することを提案する。
論文 参考訳(メタデータ) (2023-08-29T04:59:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。