論文の概要: End-to-End Neural Discourse Deixis Resolution in Dialogue
- arxiv url: http://arxiv.org/abs/2211.15980v1
- Date: Tue, 29 Nov 2022 07:27:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 16:05:08.286744
- Title: End-to-End Neural Discourse Deixis Resolution in Dialogue
- Title(参考訳): 対話における終端から終端までのニューラル・ディスコース・ディクシス分解能
- Authors: Shengjie Li and Vincent Ng
- Abstract要約: 我々はLeeらによるSpat-based entity coreference modelを対話におけるエンドツーエンドのディクシス分解のタスクに適用する。
結果として得られたモデルであるdd-uttは、CODI-CRAC 2021共有タスクの4つのデータセットに対して最先端の結果を得る。
- 参考スコア(独自算出の注目度): 34.295018092278255
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We adapt Lee et al.'s (2018) span-based entity coreference model to the task
of end-to-end discourse deixis resolution in dialogue, specifically by
proposing extensions to their model that exploit task-specific characteristics.
The resulting model, dd-utt, achieves state-of-the-art results on the four
datasets in the CODI-CRAC 2021 shared task.
- Abstract(参考訳): 我々はLee et al. (2018) のスパンベースエンティティコア推論モデルを対話におけるエンドツーエンドのディクシス分解のタスクに適用し、特にタスク固有の特徴を生かしたモデルの拡張を提案する。
得られたモデルdd-uttは、codi-crac 2021共有タスクの4つのデータセットについて最先端の結果を得る。
関連論文リスト
- Dynamic Multi-Scale Context Aggregation for Conversational Aspect-Based
Sentiment Quadruple Analysis [4.768182075837568]
DiaASQは、対話の中で、ターゲット・アスペクト・オピニオン感覚の4倍を抽出することを目的としている。
既存の作業はそれぞれの発話を独立して符号化するので、長距離会話のコンテキストを捉えるのに苦労する。
本稿では,新しい動的マルチスケールコンテキストアグリゲーションネットワーク(DMCA)を提案する。
論文 参考訳(メタデータ) (2023-09-27T08:17:28Z) - DIONYSUS: A Pre-trained Model for Low-Resource Dialogue Summarization [127.714919036388]
DIONYSUSは、任意の新しいドメインでの対話を要約するための訓練済みエンコーダデコーダモデルである。
実験の結果,DIONYSUSは6つのデータセット上で既存の手法よりも優れていた。
論文 参考訳(メタデータ) (2022-12-20T06:21:21Z) - A Focused Study on Sequence Length for Dialogue Summarization [68.73335643440957]
既存のモデルの出力とそれに対応する人間の参照の長さの差を解析する。
モデル設定を比較し,要約長予測のための有能な特徴を同定する。
第3に,要約長を十分に組み込むことができれば,既存のモデルに顕著な改善がもたらされることを示す。
論文 参考訳(メタデータ) (2022-09-24T02:49:48Z) - Adapted End-to-End Coreference Resolution System for Anaphoric
Identities in Dialogues [18.12281605882891]
本稿では,対話におけるアナフォラ分解能の課題をターゲットとした,エンドツーエンドのニューラルコア参照分解モデルに適応した効果的なシステムを提案する。
本手法では, シングルトンのサポート, 話者のエンコーディング, 対話間通信の切り替えなど, 3つの側面に特化して対応している。
適応戦略の単純さにもかかわらず、これらの戦略は最終的なパフォーマンスに大きな影響を与え、ベースラインを最大27F1改善しました。
論文 参考訳(メタデータ) (2021-09-01T04:51:29Z) - Dialogue Summarization with Supporting Utterance Flow Modeling and Fact
Regularization [58.965859508695225]
本稿では、2つの新しいモジュールを用いた対話要約のためのエンドツーエンドニューラルネットワークを提案する。
サポートされた発話フローモデリングは、前者の発話から後者へのフォーカスを円滑にシフトさせることで、コヒーレントな要約を生成するのに役立つ。
事実の正則化は、モデルトレーニング中に生成された要約は、基礎と真実の要約と実際に一致するように促します。
論文 参考訳(メタデータ) (2021-08-03T03:09:25Z) - Coreference Augmentation for Multi-Domain Task-Oriented Dialogue State
Tracking [3.34618986084988]
本稿では,コア参照機能を明示的にモデル化したCDST(Coreference Dialogue State Tracker)を提案する。
MultiWOZ 2.1データセットの実験結果は、提案モデルが56.47%の最先端のジョイントゴール精度を達成していることを示している。
論文 参考訳(メタデータ) (2021-06-16T11:47:29Z) - Action-Based Conversations Dataset: A Corpus for Building More In-Depth
Task-Oriented Dialogue Systems [47.45333978381135]
55の異なるユーザインテントを含む10K以上の人間と人間の対話を持つAction-Based Conversationsデータセットを紹介します。
アクションステートトラッキングとカスケーディングダイアログサクセスという2つの追加のダイアログタスクを提案し、一連のベースラインを確立します。
実験の結果、より洗練されたネットワークはより単純なモデルよりも優れているが、abcdの人間レベルの性能に到達するためのかなりのギャップ(絶対精度50.8%)が存在することが示されている。
論文 参考訳(メタデータ) (2021-04-01T22:04:25Z) - Introducing Syntactic Structures into Target Opinion Word Extraction
with Deep Learning [89.64620296557177]
目的語抽出のためのディープラーニングモデルに文の構文構造を組み込むことを提案する。
また,ディープラーニングモデルの性能向上のために,新たな正規化手法を導入する。
提案モデルは,4つのベンチマークデータセット上での最先端性能を広範囲に解析し,達成する。
論文 参考訳(メタデータ) (2020-10-26T07:13:17Z) - Modeling Long Context for Task-Oriented Dialogue State Generation [51.044300192906995]
本稿では,シンプルで効果的な発話タグ付け手法と双方向言語モデルを用いたマルチタスク学習モデルを提案する。
提案手法は,入力対話コンテキストシーケンスが長い場合に,ベースラインの性能が著しく低下する,という問題を解決する。
本実験では,MultiWOZ 2.0データセットにおいて,ベースラインに対して7.03%の相対的改善を実現し,新しい最先端のジョイントゴール精度を52.04%に設定した。
論文 参考訳(メタデータ) (2020-04-29T11:02:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。