論文の概要: Two-stage Incomplete Utterance Rewriting on Editing Operation
- arxiv url: http://arxiv.org/abs/2503.16063v1
- Date: Thu, 20 Mar 2025 11:56:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 16:35:50.582624
- Title: Two-stage Incomplete Utterance Rewriting on Editing Operation
- Title(参考訳): 編集作業における2段階不完全発話書き換え
- Authors: Zhiyu Cao, Peifeng Li, Qiaoming Zhu, Yaxin Fan,
- Abstract要約: IURのためのTEO(emphTwo-stage approach on Editing Operation)という新しいフレームワークを提案する。
第1段は編集操作を生成し、第2段は生成した編集操作と対話コンテキストとを利用して不完全な発話を書き換える。
3つのIURデータセットによる実験結果から,TEOはSOTAモデルよりも有意に優れていた。
- 参考スコア(独自算出の注目度): 13.845201572755983
- License:
- Abstract: Previous work on Incomplete Utterance Rewriting (IUR) has primarily focused on generating rewritten utterances based solely on dialogue context, ignoring the widespread phenomenon of coreference and ellipsis in dialogues. To address this issue, we propose a novel framework called TEO (\emph{Two-stage approach on Editing Operation}) for IUR, in which the first stage generates editing operations and the second stage rewrites incomplete utterances utilizing the generated editing operations and the dialogue context. Furthermore, an adversarial perturbation strategy is proposed to mitigate cascading errors and exposure bias caused by the inconsistency between training and inference in the second stage. Experimental results on three IUR datasets show that our TEO outperforms the SOTA models significantly.
- Abstract(参考訳): Incomplete Utterance Rewriting (IUR) に関するこれまでの研究は、主に会話の文脈のみに基づいて書き直された発話を生成することに焦点を当てており、対話におけるコア参照やエリプシスの広範な現象を無視している。
この問題に対処するため,IURのTEO(\emph{Two-stage approach on Editing Operation})と呼ばれる新しいフレームワークを提案し,第1段が編集操作を生成し,第2段が生成した編集操作と対話コンテキストを利用して不完全な発話を書き換える。
さらに,第2段階のトレーニングと推論の不整合に起因するカスケード誤差と露出バイアスを軽減するために,逆方向の摂動戦略を提案する。
3つのIURデータセットによる実験結果から,TEOはSOTAモデルよりも有意に優れていた。
関連論文リスト
- Causal Document-Grounded Dialogue Pre-training [81.16429056652483]
百万レベルのDocGD事前学習コーパスを構築するための因果完全データセット構築戦略を提案する。
3つのベンチマークデータセットの実験により、我々の因果前トレーニングは、完全な教師付き、低リソース、少数ショット、ゼロショット設定の下で、かなり、一貫した改善を達成できることが示された。
論文 参考訳(メタデータ) (2023-05-18T12:39:25Z) - Towards End-to-End Open Conversational Machine Reading [57.18251784418258]
オープン検索型会話機械読解(OR-CMR)タスクでは,機械は対話履歴とテキスト知識ベースに応答するマルチターン質問を行う必要がある。
OR-CMRを完全エンドツーエンドで統一されたテキスト・ツー・テキスト・タスクとしてモデル化し、ShARCおよびOR-ShARCデータセットを用いた実験により、提案したエンドツーエンド・フレームワークの有効性を示す。
論文 参考訳(メタデータ) (2022-10-13T15:50:44Z) - An Imitation Learning Curriculum for Text Editing with
Non-Autoregressive Models [22.996178360362734]
機械翻訳のための模倣学習アルゴリズムは、訓練と推論のミスマッチを導入し、編集シナリオの過小評価や一般化に繋がることを示した。
制御可能なテキストの単純化と抽象的な要約という2つの難解な英語編集作業に対して,これらの戦略の有効性を示す。
論文 参考訳(メタデータ) (2022-03-17T17:36:23Z) - Structural Pre-training for Dialogue Comprehension [51.215629336320305]
本稿では,SPIDER, Structure Pre-trained DialoguE Readerについて述べる。
対話のような特徴をシミュレートするために,元のLM目的に加えて,2つの訓練目標を提案する。
広く使われている対話ベンチマークの実験結果から,新たに導入した自己教師型タスクの有効性が検証された。
論文 参考訳(メタデータ) (2021-05-23T15:16:54Z) - Robust Dialogue Utterance Rewriting as Sequence Tagging [62.12912805378693]
対話書き換えの課題は,対話コンテキストから欠落した内容をコピーし,最新の対話発話を再構築することにある。
これまで、このタスクの既存のモデルは堅牢性の問題、すなわち、異なるドメインでテストする場合のパフォーマンスは劇的に低下します。
本研究では,探索空間を大幅に縮小する新しいシーケンスタグ型流束モデルを提案する。
論文 参考訳(メタデータ) (2020-12-29T00:05:35Z) - Recurrent Inference in Text Editing [6.4689151804633775]
本稿では,反復的に編集動作を行う新しい推論手法Recurrenceを提案する。
各イテレーションにおいて、部分的に編集されたテキストをエンコードするRecurrenceは、潜在表現をデコードし、短い、固定長のアクションを生成し、そのアクションを適用して単一の編集を完了させる。
総合的な比較として、算術演算子復元(AOR)、算術演算子単純化(AES)、算術演算子補正(AEC)の3種類のテキスト編集タスクを紹介する。
論文 参考訳(メタデータ) (2020-09-26T17:06:29Z) - SARG: A Novel Semi Autoregressive Generator for Multi-turn Incomplete
Utterance Restoration [9.394277095571942]
本稿では,マルチターン対話システムにおける不完全な発話復元について検討する。
本稿では,高い効率と柔軟性を有する新しい半自己回帰発電機(SARG)を提案する。
論文 参考訳(メタデータ) (2020-08-04T11:52:20Z) - Detecting Ongoing Events Using Contextual Word and Sentence Embeddings [110.83289076967895]
本稿では,OED(Ongoing Event Detection)タスクを紹介する。
目的は、歴史、未来、仮説、あるいは新しいものでも現在のものでもない他の形式や出来事に対してのみ、進行中のイベントの言及を検出することである。
構造化されていないテキストから進行中のイベントに関する構造化情報を抽出する必要があるアプリケーションは、OEDシステムを利用することができる。
論文 参考訳(メタデータ) (2020-07-02T20:44:05Z) - Joint Contextual Modeling for ASR Correction and Language Understanding [60.230013453699975]
言語理解(LU)と協調してASR出力の文脈的言語補正を行うマルチタスクニューラルアプローチを提案する。
そこで本研究では,市販のASRおよびLUシステムの誤差率を,少量のドメイン内データを用いてトレーニングしたジョイントモデルと比較して14%削減できることを示した。
論文 参考訳(メタデータ) (2020-01-28T22:09:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。