論文の概要: Robust Dialogue Utterance Rewriting as Sequence Tagging
- arxiv url: http://arxiv.org/abs/2012.14535v1
- Date: Tue, 29 Dec 2020 00:05:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-18 20:40:32.857263
- Title: Robust Dialogue Utterance Rewriting as Sequence Tagging
- Title(参考訳): シーケンスタギングとしてのロバスト対話音声書き換え
- Authors: Jie Hao, Linfeng Song, Liwei Wang, Kun Xu, Zhaopeng Tu and Dong Yu
- Abstract要約: 対話書き換えの課題は,対話コンテキストから欠落した内容をコピーし,最新の対話発話を再構築することにある。
これまで、このタスクの既存のモデルは堅牢性の問題、すなわち、異なるドメインでテストする場合のパフォーマンスは劇的に低下します。
本研究では,探索空間を大幅に縮小する新しいシーケンスタグ型流束モデルを提案する。
- 参考スコア(独自算出の注目度): 62.12912805378693
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The task of dialogue rewriting aims to reconstruct the latest dialogue
utterance by copying the missing content from the dialogue context. Until now,
the existing models for this task suffer from the robustness issue, i.e.,
performances drop dramatically when testing on a different domain. We address
this robustness issue by proposing a novel sequence-tagging-based model so that
the search space is significantly reduced, yet the core of this task is still
well covered. As a common issue of most tagging models for text generation, the
model's outputs may lack fluency. To alleviate this issue, we inject the loss
signal from BLEU or GPT-2 under a REINFORCE framework. Experiments show huge
improvements of our model over the current state-of-the-art systems on domain
transfer.
- Abstract(参考訳): 対話書き換えの課題は,対話コンテキストから欠落した内容をコピーし,最新の対話発話を再構築することにある。
これまで、このタスクの既存のモデルは堅牢性の問題、すなわち、異なるドメインでテストする場合のパフォーマンスは劇的に低下します。
この頑健性の問題に対処するために,新たなシーケンスタグベースモデルを提案することで,検索空間を大幅に削減するが,このタスクのコアはいまだに十分にカバーされている。
テキスト生成のためのほとんどのタグ付けモデルの一般的な問題として、モデルの出力は流動性に欠ける可能性がある。
この問題を軽減するため,REINFORCE フレームワークを用いてBLEU や GPT-2 から損失信号を注入する。
実験は、ドメイン転送に関する現在の最先端システムよりも、我々のモデルの大幅な改善を示しています。
関連論文リスト
- Cohesive Conversations: Enhancing Authenticity in Multi-Agent Simulated Dialogues [17.38671584773247]
本稿では,Large Language Models (LLM) を用いたシミュレーションにおけるマルチエージェント対話の品質について検討する。
本稿では,発話誤りを検出し,訂正する新しいスクリーニング,診断,再生(SDR)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-13T14:24:45Z) - Separate-and-Enhance: Compositional Finetuning for Text2Image Diffusion
Models [58.46926334842161]
この研究は、注意力の低いアクティベーションスコアとマスクオーバーラップに関連する問題を指摘し、このような不一致の根本的な理由を照らしている。
本稿では,物体マスクの重なりを低減し,注目度を最大化する2つの新しい目的,分離損失とエンハンス損失を提案する。
提案手法は従来のテスト時間適応手法と異なり,拡張性と一般化性を高める重要なパラメータの微調整に重点を置いている。
論文 参考訳(メタデータ) (2023-12-10T22:07:42Z) - Incomplete Utterance Rewriting as Sequential Greedy Tagging [0.0]
モデル話者変動に対する話者認識埋め込みを導入する。
本モデルでは,従来の最先端モデルに匹敵する他のスコアを持つとともに,9つの復元スコアに対して最適な結果が得られる。
論文 参考訳(メタデータ) (2023-07-08T04:05:04Z) - An Empirical Study of Multitask Learning to Improve Open Domain Dialogue
Systems [0.13706331473063876]
本稿では,中小GPT-2モデルに4種類の補助タスクを追加する方法について述べる。
その結果、新しい補助タスクの導入は、調査されたモデルの評価において、小さなが一貫した改善をもたらすことが示された。
論文 参考訳(メタデータ) (2023-04-17T09:44:56Z) - Stabilized In-Context Learning with Pre-trained Language Models for Few
Shot Dialogue State Tracking [57.92608483099916]
大規模事前学習言語モデル(PLM)は、多くのNLPタスクにまたがる優れた性能を示している。
対話状態追跡(DST)のようなより複雑なタスクでは、望ましい意図を確実に伝達するプロンプトを設計するのは簡単ではない。
対話文の長さを制限するためのサリエンシモデルを導入し、クエリ毎に多くの例を含めることができます。
論文 参考訳(メタデータ) (2023-02-12T15:05:10Z) - He Said, She Said: Style Transfer for Shifting the Perspective of
Dialogues [75.58367095888914]
そこで本研究では,対話を非公式な初対人から形式的な第三者に書き換える視点シフト(spective shift)という,新たなスタイル転送タスクを定義した。
サンプルアプリケーションとして,対話要約データセット(SAMSum)への視点シフトの適用により,抽出ニュース要約モデルのゼロショット性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-10-27T14:16:07Z) - DialogVED: A Pre-trained Latent Variable Encoder-Decoder Model for
Dialog Response Generation [80.45816053153722]
DialogVEDは、拡張エンコーダデコーダ事前トレーニングフレームワークに連続潜伏変数を導入し、応答の関連性と多様性を高める。
我々は,PersonaChat,DailyDialog,DSTC7-AVSDベンチマークを用いて応答生成実験を行った。
論文 参考訳(メタデータ) (2022-04-27T16:18:15Z) - Task-Oriented Dialogue System as Natural Language Generation [29.870260635814436]
本稿では,タスク指向対話システムを純粋に自然言語生成タスクとして定式化する。
この方法は、デレシカル化トークンの除去によって引き起こされる対話エンティティの不整合に悩まされる。
我々は,軽量アダプタとCopyNetモジュールをGPT-2に組み込んだ新しいGPT-Adapter-CopyNetネットワークを設計し,性能を向上する。
論文 参考訳(メタデータ) (2021-08-31T08:36:42Z) - SARG: A Novel Semi Autoregressive Generator for Multi-turn Incomplete
Utterance Restoration [9.394277095571942]
本稿では,マルチターン対話システムにおける不完全な発話復元について検討する。
本稿では,高い効率と柔軟性を有する新しい半自己回帰発電機(SARG)を提案する。
論文 参考訳(メタデータ) (2020-08-04T11:52:20Z) - PALM: Pre-training an Autoencoding&Autoregressive Language Model for
Context-conditioned Generation [92.7366819044397]
自己指導型事前学習は、自然言語の理解と生成のための強力な技術として登場した。
本研究は,大規模未ラベルコーパス上で自己エンコーディングと自己回帰言語モデルを共同で事前学習する新しいスキームをPALMに提示する。
広範な実験により、PALMは様々な言語生成ベンチマークにおいて、新しい最先端の結果を達成することが示されている。
論文 参考訳(メタデータ) (2020-04-14T06:25:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。