論文の概要: Advances in Multi-turn Dialogue Comprehension: A Survey
- arxiv url: http://arxiv.org/abs/2110.04984v2
- Date: Tue, 12 Oct 2021 06:20:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-13 10:44:37.679310
- Title: Advances in Multi-turn Dialogue Comprehension: A Survey
- Title(参考訳): マルチターン対話理解の進歩:サーベイ
- Authors: Zhuosheng Zhang and Hai Zhao
- Abstract要約: 自然言語を理解し、人間と対話するための訓練機械は、人工知能の解明と本質的なタスクである。
本稿では,対話理解タスクにおける対話モデリングの技術的視点から,過去の手法を概観する。
さらに,対話シナリオにおけるPrLMの強化に使用される対話関連事前学習手法を分類する。
- 参考スコア(独自算出の注目度): 51.215629336320305
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training machines to understand natural language and interact with humans is
an elusive and essential task of artificial intelligence. A diversity of
dialogue systems has been designed with the rapid development of deep learning
techniques, especially the recent pre-trained language models (PrLMs). Among
these studies, the fundamental yet challenging type of task is dialogue
comprehension whose role is to teach the machines to read and comprehend the
dialogue context before responding. In this paper, we review the previous
methods from the technical perspective of dialogue modeling for the dialogue
comprehension task. We summarize the characteristics and challenges of dialogue
comprehension in contrast to plain-text reading comprehension. Then, we discuss
three typical patterns of dialogue modeling. In addition, we categorize
dialogue-related pre-training techniques which are employed to enhance PrLMs in
dialogue scenarios. Finally, we highlight the technical advances in recent
years and point out the lessons from the empirical analysis and the prospects
towards a new frontier of researches.
- Abstract(参考訳): 自然言語を理解し、人間と対話するための訓練機械は、人工知能の解明と不可欠なタスクである。
対話システムの多様性は、ディープラーニング技術、特に最近の事前学習言語モデル(PrLM)の急速な発展と共に設計されている。
これらの研究の中で、基本的な課題は対話理解であり、その役割は機械に応答する前に対話コンテキストを読み、理解させることである。
本稿では,対話理解タスクにおける対話モデリングの技術的視点から,過去の手法を概観する。
平文読解とは対照的に,対話理解の特徴と課題を要約する。
次に,対話モデリングの典型的な3つのパターンについて論じる。
さらに,対話シナリオにおけるPrLMの強化に使用される対話関連事前学習手法を分類する。
最後に,近年の技術的進歩を浮き彫りにして,実証的分析から得た教訓と新たな研究のフロンティアへの展望を指摘する。
関連論文リスト
- WavChat: A Survey of Spoken Dialogue Models [66.82775211793547]
GPT-4oのようなシステムで実証された音声対話モデルの最近の進歩は、音声領域において大きな注目を集めている。
これらの高度な音声対話モデルは、音声、音楽、その他の音声関連の特徴を理解するだけでなく、音声のスタイリスティックな特徴や音節的な特徴も捉える。
音声対話システムの進歩にもかかわらず、これらのシステムを体系的に組織化し分析する包括的調査が欠如している。
論文 参考訳(メタデータ) (2024-11-15T04:16:45Z) - FutureTOD: Teaching Future Knowledge to Pre-trained Language Model for
Task-Oriented Dialogue [20.79359173822053]
本稿では,対話前学習モデルFutureTODを提案する。
我々の直感は、良い対話表現はどちらも局所的な文脈情報を学び、将来の情報を予測することである。
論文 参考訳(メタデータ) (2023-06-17T10:40:07Z) - Channel-aware Decoupling Network for Multi-turn Dialogue Comprehension [81.47133615169203]
本稿では,PrLMの逐次文脈化を超えて,発話間の包括的相互作用のための合成学習を提案する。
私たちは、モデルが対話ドメインに適応するのを助けるために、ドメイン適応型トレーニング戦略を採用しています。
実験の結果,提案手法は4つの公開ベンチマークデータセットにおいて,強力なPrLMベースラインを著しく向上させることがわかった。
論文 参考訳(メタデータ) (2023-01-10T13:18:25Z) - DialogLM: Pre-trained Model for Long Dialogue Understanding and
Summarization [19.918194137007653]
本稿では,長い対話理解と要約のための事前学習フレームワークを提案する。
長い会話の性質を考慮し、生成前学習のためのウィンドウベースの認知的アプローチを提案する。
我々は,対話要約,抽象的質問応答,トピックセグメンテーションのタスクをカバーする,長文対話の5つのデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-09-06T13:55:03Z) - Dialogue-oriented Pre-training [70.03028879331339]
一般的なプレーンテキスト上での会話特徴をシミュレートする3つの手法を提案する。
Dialog-PrLMは3つの公開マルチターン対話データセットに基づいて微調整される。
論文 参考訳(メタデータ) (2021-06-01T12:02:46Z) - Advances in Multi-turn Dialogue Comprehension: A Survey [51.215629336320305]
対話モデリングの観点から,従来の手法を検討した。
対話理解タスクで広く使用されている対話モデリングの3つの典型的なパターンについて議論します。
論文 参考訳(メタデータ) (2021-03-04T15:50:17Z) - Utterance-level Dialogue Understanding: An Empirical Study [43.35258958775454]
本稿では,対話の異なる側面における文脈の役割を探求し,定量化する。
具体的には、与えられた発話の文脈を歪ませるために様々な摂動を用いる。
これにより、対話の異なる側面の基本的な文脈的制御要因に関する洞察が得られます。
論文 参考訳(メタデータ) (2020-09-29T09:50:21Z) - Masking Orchestration: Multi-task Pretraining for Multi-role Dialogue
Representation Learning [50.5572111079898]
マルチロール対話理解は、質問応答、行動分類、対話要約など、幅広い多様なタスクを含む。
対話コーパスは豊富に利用可能であるが、特定の学習タスクのためのラベル付きデータは非常に不足しており、高価である。
本研究では,教師なし事前学習タスクを用いた対話文脈表現学習について検討する。
論文 参考訳(メタデータ) (2020-02-27T04:36:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。