論文の概要: DEMO: Reframing Dialogue Interaction with Fine-grained Element Modeling
- arxiv url: http://arxiv.org/abs/2412.04905v1
- Date: Fri, 06 Dec 2024 10:01:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-09 15:58:01.892695
- Title: DEMO: Reframing Dialogue Interaction with Fine-grained Element Modeling
- Title(参考訳): DEMO: きめ細かい要素モデリングによるリフレーミング対話インタラクション
- Authors: Minzheng Wang, Xinghua Zhang, Kun Chen, Nan Xu, Haiyang Yu, Fei Huang, Wenji Mao, Yongbin Li,
- Abstract要約: 大規模言語モデル(LLM)は、対話を人間と機械の相互作用の中心的なモードの一つにした。
本稿では,包括的対話モデリングと評価のために設計された新しいベンチマークである$textbfDEMO$を提案する。
模倣学習にインスパイアされたエージェントは,DEMOベンチマークに基づいて対話要素をモデル化する能力を有する。
- 参考スコア(独自算出の注目度): 73.08187964426823
- License:
- Abstract: Large language models (LLMs) have made dialogue one of the central modes of human-machine interaction, leading to the accumulation of vast amounts of conversation logs and increasing demand for dialogue generation. A conversational life-cycle spans from the Prelude through the Interlocution to the Epilogue, encompassing various elements. Despite the existence of numerous dialogue-related studies, there is a lack of benchmarks that encompass comprehensive dialogue elements, hindering precise modeling and systematic evaluation. To bridge this gap, we introduce an innovative research task $\textbf{D}$ialogue $\textbf{E}$lement $\textbf{MO}$deling, including $\textit{Element Awareness}$ and $\textit{Dialogue Agent Interaction}$, and propose a novel benchmark, $\textbf{DEMO}$, designed for a comprehensive dialogue modeling and assessment. Inspired by imitation learning, we further build the agent which possesses the adept ability to model dialogue elements based on the DEMO benchmark. Extensive experiments indicate that existing LLMs still exhibit considerable potential for enhancement, and our DEMO agent has superior performance in both in-domain and out-of-domain tasks.
- Abstract(参考訳): 大規模言語モデル(LLM)は、対話を人間と機械の相互作用の中心的なモードの一つにし、大量の会話ログが蓄積され、対話生成の需要が増大する。
会話のライフサイクルは、プレルードからインターロカティオンを経てエピローグへと広がり、様々な要素を含んでいる。
多くの対話関連研究が存在するにもかかわらず、包括的な対話要素を含むベンチマークが欠如しており、正確なモデリングや体系的な評価を妨げている。
このギャップを埋めるために、$\textbf{D}$ialogue $\textbf{E}$lement $\textbf{MO}$deling($\textit{Element Awareness}$および$\textit{Dialogue Agent Interaction}$を含む)という革新的な研究タスクを導入し、包括的な対話モデリングと評価のために設計された新しいベンチマークである$\textbf{DEMO}$を提案する。
模倣学習に触発されて,DEMOベンチマークに基づいて対話要素をモデル化する能力を持つエージェントをさらに構築する。
大規模な実験により,既存のLLMは拡張の可能性を秘めており,DECエージェントはドメイン内タスクとドメイン外タスクの両方において優れた性能を示した。
関連論文リスト
- ESCoT: Towards Interpretable Emotional Support Dialogue Systems [57.19341456308303]
これまでの研究は主に、より良い応答を生成することに重点を置いていたが、信頼性の高い対話システムを構築する上で非常に重要である解釈可能性を無視している。
本稿では, 感情支援応答生成手法として, $textbfE$motion-Focused と $textbfS$trategy-Driven を提案する。
また,提案したESCoTの有効性と,生成した対話応答を検証するために,広範囲な実験と人的評価を行った。
論文 参考訳(メタデータ) (2024-06-16T14:37:17Z) - OmniDialog: An Omnipotent Pre-training Model for Task-Oriented Dialogue
System [43.92593448255296]
我々はOmnipotent Dialogue pre-training model(OmniDialog)を提案する。
3つの対話タスクをマルチタスク学習によってモノリシックなフレームワークに統合し、タスク間通信を促進する。
対話の要約、エンドツーエンドの対話モデリング、対話状態追跡、意図分類の4つのタスクでその性能を評価する。
論文 参考訳(メタデータ) (2023-12-28T07:20:49Z) - Contextual Data Augmentation for Task-Oriented Dialog Systems [8.085645180329417]
本研究では,ユーザターンを生成する新しいダイアログ拡張モデルを構築し,完全なダイアログコンテキストを条件づける。
言語モデルの新しいプロンプト設計と出力の再ランク付けにより、我々のモデルから生成されたダイアログを直接使用して、下流ダイアログシステムのトレーニングを行うことができる。
論文 参考訳(メタデータ) (2023-10-16T13:22:34Z) - Multi-turn Dialogue Comprehension from a Topic-aware Perspective [70.37126956655985]
本稿では,話題認識の観点から,マルチターン対話をモデル化することを提案する。
対話文のセグメント化アルゴリズムを用いて、対話文を教師なしの方法でトピック集中フラグメントに分割する。
また,トピックセグメントを処理要素として扱う新しいモデルとして,トピック認識デュアルアテンションマッチング(TADAM)ネットワークを提案する。
論文 参考訳(メタデータ) (2023-09-18T11:03:55Z) - Controllable Dialogue Simulation with In-Context Learning [39.04491297557292]
textscDialogicは、大規模言語モデルに基づく対話シミュレーション手法である。
本手法は,人間の関与を最小あるいはゼロに抑えながら,少数の対話データを迅速に拡張することができる。
我々のシミュレートされた対話は、ほぼ人間に近い流速とアノテーションの精度を持つ。
論文 参考訳(メタデータ) (2022-10-09T06:32:58Z) - SPACE-3: Unified Dialog Model Pre-training for Task-Oriented Dialog
Understanding and Generation [123.37377363355363]
SPACE-3は、大規模対話コーパスから学習する、新しい半教師付き会話モデルである。
幅広いダウンストリームダイアログタスクを効果的に微調整できる。
その結果、SPACE-3は8つの下流ダイアログベンチマークで最先端のパフォーマンスを達成することがわかった。
論文 参考訳(メタデータ) (2022-09-14T14:17:57Z) - Manual-Guided Dialogue for Flexible Conversational Agents [84.46598430403886]
対話データを効率的に構築し、利用する方法や、さまざまなドメインにモデルを大規模にデプロイする方法は、タスク指向の対話システムを構築する上で重要な問題である。
エージェントは対話とマニュアルの両方からタスクを学習する。
提案手法は,詳細なドメインオントロジーに対する対話モデルの依存性を低減し,様々なドメインへの適応をより柔軟にする。
論文 参考訳(メタデータ) (2022-08-16T08:21:12Z) - Fusing task-oriented and open-domain dialogues in conversational agents [12.338220374261343]
2つの対話モードは、友好的な人間のアシスタントが簡単に行うように、同じ会話でシームレスに連携することができる。
本稿では,マルチターン対話におけるTODとODDの融合の問題に対処する。
すなわち、対話は2つのモードから切り替わる。
論文 参考訳(メタデータ) (2021-09-09T09:48:26Z) - DialogLM: Pre-trained Model for Long Dialogue Understanding and
Summarization [19.918194137007653]
本稿では,長い対話理解と要約のための事前学習フレームワークを提案する。
長い会話の性質を考慮し、生成前学習のためのウィンドウベースの認知的アプローチを提案する。
我々は,対話要約,抽象的質問応答,トピックセグメンテーションのタスクをカバーする,長文対話の5つのデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-09-06T13:55:03Z) - Conversation Learner -- A Machine Teaching Tool for Building Dialog
Managers for Task-Oriented Dialog Systems [57.082447660944965]
Conversation Learnerは、ダイアログマネージャを構築するための機械学習ツールである。
ダイアログ作成者が慣れ親しんだツールを使ってダイアログフローを作成し、ダイアログフローをパラメトリックモデルに変換することができる。
ユーザシステムダイアログをトレーニングデータとして活用することで、ダイアログ作成者が時間とともにダイアログマネージャを改善することができる。
論文 参考訳(メタデータ) (2020-04-09T00:10:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。