論文の概要: Towards Generalized and Explainable Long-Range Context Representation
for Dialogue Systems
- arxiv url: http://arxiv.org/abs/2210.06282v1
- Date: Wed, 12 Oct 2022 15:05:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 14:11:08.102719
- Title: Towards Generalized and Explainable Long-Range Context Representation
for Dialogue Systems
- Title(参考訳): 対話システムのための一般化・説明可能なロングランジコンテキスト表現に向けて
- Authors: Suvodip Dey, Maunendra Sankar Desarkar, P. K. Srijith
- Abstract要約: 一般化・説明可能な文脈表現を備えた対話応答生成のための新しいフレームワークであるDialoGXを提案する。
提案手法は、a)コンテキスト全体の動的表現を計算し、b)次の応答を生成するのに関係のある前の発話を見つけるという2つの重要なアイデアに基づいている。
オープンドメインのChit-chatデータセットであるDailyDialogで実験を行った。
- 参考スコア(独自算出の注目度): 5.607676459156789
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Context representation is crucial to both dialogue understanding and
generation. Recently, the most popular method for dialog context representation
is to concatenate the last-$k$ previous utterances as context and use a large
transformer-based model to generate the next response. However, this method may
not be ideal for conversations containing long-range dependencies. In this
work, we propose DialoGX, a novel encoder-decoder based framework for
conversational response generation with a generalized and explainable context
representation that can look beyond the last-$k$ utterances. Hence the method
is adaptive to conversations with long-range dependencies. Our proposed
solution is based on two key ideas: a) computing a dynamic representation of
the entire context, and b) finding the previous utterances that are relevant
for generating the next response. Instead of last-$k$ utterances, DialoGX uses
the concatenation of the dynamic context vector and encoding of the most
relevant utterances as input which enables it to represent conversations of any
length in a compact and generalized fashion. We conduct our experiments on
DailyDialog, a popular open-domain chit-chat dataset. DialoGX achieves
comparable performance with the state-of-the-art models on the automated
metrics. We also justify our context representation through the lens of
psycholinguistics and show that the relevance score of previous utterances
agrees well with human cognition which makes DialoGX explainable as well.
- Abstract(参考訳): 文脈表現は対話理解と生成の両方に不可欠である。
最近、ダイアログコンテキスト表現の最も一般的な方法は、前回の$k$の発話をコンテキストとして結合し、大きなトランスフォーマーベースのモデルを使用して次の応答を生成することである。
しかし、この方法は長距離依存関係を含む会話には適していない。
本研究では,対話型応答生成のための新しいエンコーダデコーダベースのフレームワークであるDialoGXを提案する。
したがって、この手法は長距離依存による会話に適応する。
提案するソリューションは2つの重要なアイデアに基づいています。
a) 文脈全体の動的な表現を計算すること,及び
b) 次の応答の生成に関連する前の発話を見つけること。
最後の$kの発話の代わりに、ダイアロGXは動的文脈ベクトルの連結と最も関連する発話の符号化を入力として使用し、コンパクトで一般化された方法で任意の長さの会話を表現する。
オープンドメインのChit-chatデータセットであるDailyDialogで実験を行った。
DialoGXは、自動メトリクスの最先端モデルと同等のパフォーマンスを達成する。
また、精神言語学のレンズを通して文脈表現を正当化し、過去の発話の関連スコアが人間の認知とよく一致していることを示し、DialoGXも説明できることを示した。
関連論文リスト
- Enhancing Visual Dialog State Tracking through Iterative Object-Entity Alignment in Multi-Round Conversations [3.784841749866846]
MDST(Multi-round Dialogue State Tracking Model)を導入する。
MDSTは、内的対話状態表現を視覚言語表現の2-タプルとして定義し、各ラウンドの対話履歴をキャプチャする。
VisDial v1.0データセットの実験結果は、MDSTが生成環境において新しい最先端性能を達成することを示した。
論文 参考訳(メタデータ) (2024-08-13T08:36:15Z) - Multi-grained Hypergraph Interest Modeling for Conversational
Recommendation [75.65483522949857]
複雑な履歴データの下でユーザの興味を捉えるために, マルチグラデーション・ハイパーグラフ・インフォメーション・モデリング手法を提案する。
提案手法では,まず,ユーザの過去の対話セッションをモデル化し,セッションベースハイパーグラフを作成するためにハイパーグラフ構造を用いる。
さらに,2種類のハイパーグラフに対して多粒度ハイパーグラフの畳み込みを行い,拡張表現を用いて関心を意識したCRSを開発する。
論文 参考訳(メタデータ) (2023-05-04T13:13:44Z) - Unsupervised Dialogue Topic Segmentation with Topic-aware Utterance
Representation [51.22712675266523]
対話トピック(DTS)は、様々な対話モデリングタスクにおいて重要な役割を果たす。
本稿では,ラベルなし対話データからトピック対応発話表現を学習する,教師なしDSSフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-04T11:35:23Z) - X-ReCoSa: Multi-Scale Context Aggregation For Multi-Turn Dialogue
Generation [0.0]
マルチターン対話生成では、応答は文脈の話題や背景だけでなく、文脈の文中の単語やフレーズにも関係している。
現在広く使われている階層型ダイアログモデルは、単語レベルのエンコーダから出力される文表現を無視して、発話レベルのエンコーダからの文脈表現のみに依存している。
本稿では,階層型ダイアログモデルのためのマルチスケールコンテキスト情報を集約する,新しいダイアログモデルX-ReCoSaを提案する。
論文 参考訳(メタデータ) (2023-03-14T12:15:52Z) - History-Aware Hierarchical Transformer for Multi-session Open-domain
Dialogue System [59.78425104243993]
マルチセッションオープンドメイン対話のための履歴認識階層変換器(HAHT)を提案する。
HAHTは歴史会話の長期記憶を維持し、歴史情報を利用して現在の会話状況を理解する。
大規模マルチセッション会話データセットの実験結果は,提案したHAHTモデルがベースラインモデルより一貫して優れていることを示唆している。
論文 参考訳(メタデータ) (2023-02-02T06:54:33Z) - Dialogue Meaning Representation for Task-Oriented Dialogue Systems [51.91615150842267]
タスク指向対話のための柔軟かつ容易に拡張可能な表現である対話意味表現(DMR)を提案する。
我々の表現は、合成意味論とタスク固有の概念のためのリッチな意味論を表現するために、継承階層を持つノードとエッジのセットを含んでいる。
異なる機械学習ベースの対話モデルを評価するための2つの評価タスクを提案し、さらにグラフベースのコア参照解決タスクのための新しいコア参照解決モデルGNNCorefを提案する。
論文 参考訳(メタデータ) (2022-04-23T04:17:55Z) - Precognition in Task-oriented Dialogue Understanding: Posterior
Regularization by Future Context [8.59600111891194]
本稿では,後続正則化手法を用いて,歴史的・将来の情報を共同でモデル化することを提案する。
これらの間のKL距離を最適化し、トレーニング中にモデルを正規化します。
2つの対話データセットの実験により,提案手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-03-07T09:58:50Z) - CREDIT: Coarse-to-Fine Sequence Generation for Dialogue State Tracking [44.38388988238695]
対話状態トラッカーは、現在の対話状態のコンパクトな表現を正確に見つけることを目的としている。
我々はシーケンス生成問題として構造化状態表現とキャスト対話状態追跡を用いる。
我々のトラッカーは,MultiWOZ 2.0とMultiWOZ 2.1データセットの5つの領域で共同目標精度を向上することを示した。
論文 参考訳(メタデータ) (2020-09-22T10:27:18Z) - Ranking Enhanced Dialogue Generation [77.8321855074999]
対話履歴を効果的に活用する方法は、マルチターン対話生成において重要な問題である。
これまでの研究は通常、歴史をモデル化するために様々なニューラルネットワークアーキテクチャを使用していた。
本稿では,ランキング拡張対話生成フレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-13T01:49:56Z) - Modeling Long Context for Task-Oriented Dialogue State Generation [51.044300192906995]
本稿では,シンプルで効果的な発話タグ付け手法と双方向言語モデルを用いたマルチタスク学習モデルを提案する。
提案手法は,入力対話コンテキストシーケンスが長い場合に,ベースラインの性能が著しく低下する,という問題を解決する。
本実験では,MultiWOZ 2.0データセットにおいて,ベースラインに対して7.03%の相対的改善を実現し,新しい最先端のジョイントゴール精度を52.04%に設定した。
論文 参考訳(メタデータ) (2020-04-29T11:02:25Z) - Efficient Context and Schema Fusion Networks for Multi-Domain Dialogue
State Tracking [32.36259992245]
対話状態追跡(DST)は、前回の会話のすべてから現在の対話状態を推定することを目的としている。
マルチドメインDSTでは、状態候補の数の増加と対話長の増加により、データ空間の問題が大きな障害となっている。
従来の対話状態(予測)と現在の対話発話をDSTの入力として利用する。
論文 参考訳(メタデータ) (2020-04-07T13:46:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。