論文の概要: AsyncMLD: Asynchronous Multi-LLM Framework for Dialogue Recommendation
System
- arxiv url: http://arxiv.org/abs/2312.13925v1
- Date: Thu, 21 Dec 2023 15:12:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-22 14:31:25.081702
- Title: AsyncMLD: Asynchronous Multi-LLM Framework for Dialogue Recommendation
System
- Title(参考訳): AsyncMLD:対話推薦システムのための非同期マルチLLMフレームワーク
- Authors: Naoki Yoshimaru, Motoharu Okuma, Takamasa Iio and Kenji Hatano
- Abstract要約: 適切な応答を返すシステムの一部として,LLMを非同期に使用するフレームワークを提案する。
特に、ロボットが話している間、データベース検索に関連することをロボットが話すのに時間を要することに注意する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We have reached a practical and realistic phase in human-support dialogue
agents by developing a large language model (LLM). However, when requiring
expert knowledge or anticipating the utterance content using the massive size
of the dialogue database, we still need help with the utterance content's
effectiveness and the efficiency of its output speed, even if using LLM.
Therefore, we propose a framework that uses LLM asynchronously in the part of
the system that returns an appropriate response and in the part that
understands the user's intention and searches the database. In particular,
noting that it takes time for the robot to speak, threading related to database
searches is performed while the robot is speaking.
- Abstract(参考訳): 我々は,大規模言語モデル(LLM)を開発することで,人間支援対話エージェントの実践的で現実的な段階に達した。
しかし,対話データベースの大規模化による専門知識の要求や発話内容の予測には,LLMを用いた場合でも,発話内容の有効性と出力速度の効率化が依然として必要である。
そこで本研究では,システムの適切な応答を返す部分と,ユーザの意図を理解しデータベースを検索する部分において,非同期にllmを使用するフレームワークを提案する。
特に、ロボットが話すのに時間がかかることに注意して、ロボットが話している間、データベース検索に関連するスレッド処理を行う。
関連論文リスト
- Evaluating Very Long-Term Conversational Memory of LLM Agents [95.84027826745609]
我々は,高品質で長期的な対話を生成するための,マシン・ヒューマン・パイプラインを導入する。
我々は、各エージェントに画像の共有と反応の能力を持たせる。
生成した会話は、長距離一貫性のために人間のアノテーションによって検証され、編集される。
論文 参考訳(メタデータ) (2024-02-27T18:42:31Z) - User-LLM: Efficient LLM Contextualization with User Embeddings [24.099604517203606]
大規模言語モデル(LLM)のコンテキスト化にユーザ埋め込みを活用する新しいフレームワークであるUser-LLMを提案する。
MovieLens、Amazon Review、Google Local Reviewのデータセットに関する我々の実験は、様々なタスクで大きなパフォーマンス向上を示している。
論文 参考訳(メタデータ) (2024-02-21T08:03:27Z) - Task-Oriented Dialogue with In-Context Learning [0.0]
本稿では、大規模言語モデル(LLM)の文脈内学習能力と、ビジネスロジックの決定論的実行を組み合わせたタスク指向対話システムを構築するシステムについて述べる。
LLMは、会話の表面形式とビジネスロジックの進行に使用されるドメイン固有言語の間の翻訳に使用される。
論文 参考訳(メタデータ) (2024-02-19T15:43:35Z) - Self-seeding and Multi-intent Self-instructing LLMs for Generating
Intent-aware Information-Seeking dialogs [18.102066943918473]
大規模言語モデル (LLM) は合成データの生成に有効であることが示されている。
本稿では,新しい自己探索型多目的自己指導方式であるSOLIDを提案する。
我々は、SOLIDとSOLID-RLを使用して300万以上の意図認識ダイアログを生成し、既存のデータセットのサイズを超える。
論文 参考訳(メタデータ) (2024-02-18T16:20:43Z) - DialogBench: Evaluating LLMs as Human-like Dialogue Systems [16.997134341787486]
大規模言語モデル(LLM)は、命令チューニングを活用することで、新しい対話機能において画期的なブレークスルーを達成している。
本稿では,12の対話タスクを含む対話評価ベンチマークであるDialogBenchを提案する。
インストラクションチューニングはLLMの人間的類似性をある程度改善するが、ほとんどのLLMは人間的な対話システムとして改善の余地が十分にある。
論文 参考訳(メタデータ) (2023-11-03T02:59:56Z) - Self-Explanation Prompting Improves Dialogue Understanding in Large
Language Models [52.24756457516834]
大規模言語モデル(LLM)の理解能力を高めるための新たな「自己説明(Self-Explanation)」を提案する。
このタスクに依存しないアプローチでは、タスク実行前の各対話発話を分析し、様々な対話中心のタスクのパフォーマンスを向上させる必要がある。
6つのベンチマークデータセットによる実験結果から,本手法は他のゼロショットプロンプトよりも一貫して優れており,数ショットプロンプトの有効性を超えていることが明らかとなった。
論文 参考訳(メタデータ) (2023-09-22T15:41:34Z) - Recursively Summarizing Enables Long-Term Dialogue Memory in Large
Language Models [75.98775135321355]
長い会話をすると、大きな言語モデル(LLM)は過去の情報を思い出さず、一貫性のない応答を生成する傾向がある。
本稿では,長期記憶能力を高めるために,大規模言語モデル(LLM)を用いて要約/メモリを生成することを提案する。
論文 参考訳(メタデータ) (2023-08-29T04:59:53Z) - Unlocking the Potential of User Feedback: Leveraging Large Language
Model as User Simulator to Enhance Dialogue System [65.93577256431125]
本稿では,ユーザガイド応答最適化 (UGRO) という代替手法を提案し,タスク指向の対話モデルと組み合わせる。
このアプローチでは、アノテーションのないユーザシミュレータとしてLLMを使用して対話応答を評価し、より小型のエンドツーエンドTODモデルと組み合わせる。
提案手法は従来のSOTA(State-of-the-art)よりも優れている。
論文 参考訳(メタデータ) (2023-06-16T13:04:56Z) - Prompting and Evaluating Large Language Models for Proactive Dialogues:
Clarification, Target-guided, and Non-collaboration [72.04629217161656]
本研究は, 明瞭化, 目標誘導, 非協調対話の3つの側面に焦点をあてる。
LLMの能動性を高めるために,プロアクティブ・チェーン・オブ・ソート・プロンプト方式を提案する。
論文 参考訳(メタデータ) (2023-05-23T02:49:35Z) - A Mixture-of-Expert Approach to RL-based Dialogue Management [56.08449336469477]
我々は、強化学習を用いて、近視性(一般的な発話の出力)を回避し、全体的なユーザ満足度を最大化する対話エージェントを開発する。
既存のRLアプローチのほとんどは、単語レベルでエージェントを訓練するので、中規模の語彙であっても、非常に複雑なアクション空間を扱う必要がある。
i)会話履歴の多様な意味を学習できるLMと、(ii)対応する発話を生成できる専門的なLM(または専門家)からなる、新しい専門家言語モデル(MoE-LM)を用いたRLベースのDMを開発する。
論文 参考訳(メタデータ) (2022-05-31T19:00:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。