論文の概要: Learning to Select Context in a Hierarchical and Global Perspective for
Open-domain Dialogue Generation
- arxiv url: http://arxiv.org/abs/2102.09282v1
- Date: Thu, 18 Feb 2021 11:56:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-19 14:21:58.851496
- Title: Learning to Select Context in a Hierarchical and Global Perspective for
Open-domain Dialogue Generation
- Title(参考訳): オープンドメイン対話生成のための階層的およびグローバル視点におけるコンテキスト選択の学習
- Authors: Lei Shen, Haolan Zhan, Xin Shen, Yang Feng
- Abstract要約: 階層的自己保持機構と遠隔監視を備えた新しいモデルを提案し、関連する単語と発話を短距離および長距離で検出する。
私たちのモデルは、流速、コヒーレンス、および情報性の観点から他のベースラインを大幅に上回ります。
- 参考スコア(独自算出の注目度): 15.01710843286394
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Open-domain multi-turn conversations mainly have three features, which are
hierarchical semantic structure, redundant information, and long-term
dependency. Grounded on these, selecting relevant context becomes a challenge
step for multi-turn dialogue generation. However, existing methods cannot
differentiate both useful words and utterances in long distances from a
response. Besides, previous work just performs context selection based on a
state in the decoder, which lacks a global guidance and could lead some focuses
on irrelevant or unnecessary information. In this paper, we propose a novel
model with hierarchical self-attention mechanism and distant supervision to not
only detect relevant words and utterances in short and long distances, but also
discern related information globally when decoding. Experimental results on two
public datasets of both automatic and human evaluations show that our model
significantly outperforms other baselines in terms of fluency, coherence, and
informativeness.
- Abstract(参考訳): オープンドメインのマルチターン会話は、主に階層的セマンティック構造、冗長情報、長期依存性の3つの特徴を持つ。
これらに基づいて、関連するコンテキストの選択は、マルチターン対話生成のチャレンジステップになります。
しかし,既存の手法では,応答から長距離で有用な単語と発話を区別することはできない。
さらに、以前の作業はデコーダの状態に基づいてコンテキスト選択を実行するだけで、グローバルなガイダンスが欠如しており、無関係または不要な情報に焦点を絞ることができる。
本論文では, 階層的自己保持機構と遠隔監視を備えた新しいモデルを提案し, 関連語や発話を短距離および長距離に検出するだけでなく, 復号化時に関連情報をグローバルに識別する。
自動評価と人的評価の2つの公開データセットによる実験結果から,我々のモデルは,流速,コヒーレンス,情報性において,他のベースラインよりも有意に優れていた。
関連論文リスト
- Revisiting Conversation Discourse for Dialogue Disentanglement [88.3386821205896]
本稿では,対話談話特性を最大限に活用し,対話の絡み合いを高めることを提案する。
我々は,会話の意味的文脈をより良くモデル化するために,リッチな構造的特徴を統合する構造認識フレームワークを開発した。
我々の研究は、より広範なマルチスレッド対話アプリケーションを促進する大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-06-06T19:17:47Z) - Tri-level Joint Natural Language Understanding for Multi-turn
Conversational Datasets [5.3361357265365035]
本稿では,新しい三段階共同自然言語理解手法,ドメインの追加,意味情報をすべてのレベル間で明示的に交換する手法を提案する。
我々は,2つのマルチターンデータセットを用いて,共同スロット充填とインテント検出を行った最初のモデルとして評価を行った。
論文 参考訳(メタデータ) (2023-05-28T13:59:58Z) - Dialogue Term Extraction using Transfer Learning and Topological Data
Analysis [0.8185867455104834]
我々は、純粋にデータ駆動方式で対話におけるドメイン、スロット、値の認識を可能にするさまざまな機能を探究する。
各特徴セットの有用性を検討するために、広く使われているMultiWOZデータセットに基づいてシードモデルを訓練する。
提案手法は,単語の埋め込みのみに依存する従来の手法よりも優れている。
論文 参考訳(メタデータ) (2022-08-22T17:04:04Z) - Self-Supervised Speech Representation Learning: A Review [105.1545308184483]
自己教師付き表現学習法は、幅広いタスクやドメインに利益をもたらす単一の普遍的モデルを約束する。
音声表現学習は、生成的、コントラスト的、予測的という3つの主要なカテゴリで同様の進歩を経験している。
本稿では,自己指導型音声表現学習のアプローチと,他の研究領域との関係について述べる。
論文 参考訳(メタデータ) (2022-05-21T16:52:57Z) - Utterance Rewriting with Contrastive Learning in Multi-turn Dialogue [22.103162555263143]
比較学習とマルチタスク学習を導入し、問題を共同でモデル化する。
提案手法は,複数の公開データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-22T10:13:27Z) - Probing Task-Oriented Dialogue Representation from Language Models [106.02947285212132]
本稿では,タスク指向対話タスクにおいて,どのモデルが本質的に最も有意義な表現を担っているかを明らかにするために,事前学習された言語モデルについて検討する。
我々は、アノテートラベルを教師付き方法で固定された事前学習言語モデルの上に、分類器プローブとしてフィードフォワード層を微調整する。
論文 参考訳(メタデータ) (2020-10-26T21:34:39Z) - Topic-Aware Multi-turn Dialogue Modeling [91.52820664879432]
本稿では,トピック認識発話を教師なしでセグメント化して抽出する,多元対話モデリングのための新しいソリューションを提案する。
トピック・アウェア・モデリングは、新たに提案されたトピック・アウェア・セグメンテーション・アルゴリズムとトピック・アウェア・デュアル・アテンション・マッチング(TADAM)ネットワークによって実現されている。
論文 参考訳(メタデータ) (2020-09-26T08:43:06Z) - Diversifying Dialogue Generation with Non-Conversational Text [38.03510529185192]
非会話的テキストを活用することで対話生成を多様化する新しい視点を提案する。
我々は、フォーラムコメント、イディオム、本スニペットを含む複数の情報源から、大規模な非会話コーパスを収集する。
得られたモデルは、2つの会話データセット上でテストされ、コンテキストとの関連性を犠牲にすることなく、はるかに多様な応答を生成することが示されている。
論文 参考訳(メタデータ) (2020-05-09T02:16:05Z) - Learning an Unreferenced Metric for Online Dialogue Evaluation [53.38078951628143]
本稿では,大規模な事前学習言語モデルを用いて発話の潜在表現を抽出する非参照自動評価指標を提案する。
提案手法は,オンライン環境でのアノテーションと高い相関性を実現すると同時に,推論時に比較に真の応答を必要としないことを示す。
論文 参考訳(メタデータ) (2020-05-01T20:01:39Z) - Local-Global Video-Text Interactions for Temporal Grounding [77.5114709695216]
本稿では,テキストクエリに関連するビデオの時間間隔を特定することを目的とした,テキスト間時間グラウンドリングの問題に対処する。
そこで本研究では,テキストクエリにおける意味句の中間レベルの特徴の集合を抽出する,新しい回帰モデルを用いてこの問題に対処する。
提案手法は,ローカルからグローバルへのコンテキスト情報を活用することにより,目標時間間隔を効果的に予測する。
論文 参考訳(メタデータ) (2020-04-16T08:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。