論文の概要: Seq2Edits: Sequence Transduction Using Span-level Edit Operations
- arxiv url: http://arxiv.org/abs/2009.11136v1
- Date: Wed, 23 Sep 2020 13:28:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 16:01:45.152329
- Title: Seq2Edits: Sequence Transduction Using Span-level Edit Operations
- Title(参考訳): Seq2Edits: Spanレベルの編集操作を用いたシーケンス変換
- Authors: Felix Stahlberg and Shankar Kumar
- Abstract要約: Seq2Editsは自然言語処理(NLP)タスクのシーケンス編集のためのオープン語彙のアプローチである。
我々は5つのNLPタスク(テキスト正規化、文融合、文分割と言い換え、テキスト単純化、文法的誤り訂正)における手法を評価する。
文法的誤り訂正では,全列モデルと比較して最大5.2倍の速度で推論を高速化する。
- 参考スコア(独自算出の注目度): 10.785577504399077
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose Seq2Edits, an open-vocabulary approach to sequence editing for
natural language processing (NLP) tasks with a high degree of overlap between
input and output texts. In this approach, each sequence-to-sequence
transduction is represented as a sequence of edit operations, where each
operation either replaces an entire source span with target tokens or keeps it
unchanged. We evaluate our method on five NLP tasks (text normalization,
sentence fusion, sentence splitting & rephrasing, text simplification, and
grammatical error correction) and report competitive results across the board.
For grammatical error correction, our method speeds up inference by up to 5.2x
compared to full sequence models because inference time depends on the number
of edits rather than the number of target tokens. For text normalization,
sentence fusion, and grammatical error correction, our approach improves
explainability by associating each edit operation with a human-readable tag.
- Abstract(参考訳): seq2editsは自然言語処理(nlp)タスクのシーケンス編集のためのオープンボキャブラリーなアプローチで、入力テキストと出力テキストの重なり度が高い。
このアプローチでは、各シーケンスからシーケンスへのトランスダクションは編集操作のシーケンスとして表現され、各操作はソース全体をターゲットトークンで置き換えるか、変更を保持する。
提案手法は,5つのNLPタスク(テキスト正規化,文融合,文分割と言い換え,テキスト単純化,文法的誤り訂正)で評価し,競争結果の報告を行う。
文法的誤り訂正では,推定時間が目標トークン数ではなく編集数に依存するため,全列モデルと比較して最大5.2倍の速度で推論を行う。
テキストの正規化,文の融合,文法的誤り訂正では,各編集操作を人間可読タグに関連付けることにより,説明可能性を向上させる。
関連論文リスト
- Reducing Sequence Length by Predicting Edit Operations with Large
Language Models [50.66922361766939]
本稿では,ローカルなシーケンス変換タスクに対して,ソーステキストの編集スパンを予測することを提案する。
編集スパンの監督データに大規模言語モデルに対する命令チューニングを適用する。
実験の結果,提案手法は4つのタスクにおいて,ベースラインに匹敵する性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-05-19T17:51:05Z) - Text Editing as Imitation Game [33.418628166176234]
動作クローンを用いた模倣ゲームとしてテキスト編集を再構成する。
我々は、アクショントークン間の依存関係を保持しながら、デコーディングを並列化するデュアルデコーダ構造を導入する。
私たちのモデルは、パフォーマンス、効率、堅牢性の点で、自己回帰ベースラインを一貫して上回ります。
論文 参考訳(メタデータ) (2022-10-21T22:07:04Z) - Text Revision by On-the-Fly Representation Optimization [76.11035270753757]
現在の最先端手法は、これらのタスクをシーケンスからシーケンスまでの学習問題として定式化している。
並列データを必要としないテキストリビジョンのための反復的なインプレース編集手法を提案する。
テキストの単純化に関する最先端の教師付き手法よりも、競争力があり、パフォーマンスも向上する。
論文 参考訳(メタデータ) (2022-04-15T07:38:08Z) - Reformulating Sentence Ordering as Conditional Text Generation [17.91448517871621]
文順序フレームワークであるReorder-BART(RE-BART)を紹介します。
タスクを条件付きテキスト-マーカー生成設定として再構成します。
私たちのフレームワークは、Perfect Match Ratio(PMR)とKendallのtau($tau$)メトリックの6つのデータセットにわたる最先端のパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-04-14T18:16:47Z) - Text Editing by Command [82.50904226312451]
ニューラルテキスト生成における一般的なパラダイムは、単一のステップでテキストを生成するワンショット生成である。
この制限をユーザが既存のテキストを編集するコマンドを発行することでシステムと対話するインタラクティブテキスト生成設定で解決する。
このデータセットに基づいてトレーニングされたトランスフォーマーベースモデルであるInteractive Editorは,ベースラインを上回り,自動評価と人的評価の両方において肯定的な結果が得られることを示す。
論文 参考訳(メタデータ) (2020-10-24T08:00:30Z) - Improving the Efficiency of Grammatical Error Correction with Erroneous
Span Detection and Correction [106.63733511672721]
ESD(Eroneous Span Detection)とESC(Eroneous Span Correction)の2つのサブタスクに分割することで、文法的誤り訂正(GEC)の効率を改善するための言語に依存しない新しいアプローチを提案する。
ESDは、効率的なシーケンスタグ付けモデルを用いて文法的に誤りテキストスパンを識別する。ESCは、Seq2seqモデルを利用して、注釈付き誤字スパンの文を入力として取り、これらのスパンの修正テキストのみを出力する。
実験の結果,提案手法は英語と中国語のGECベンチマークにおいて従来のセク2seq手法と同等に動作し,推論に要するコストは50%以下であった。
論文 参考訳(メタデータ) (2020-10-07T08:29:11Z) - Incomplete Utterance Rewriting as Semantic Segmentation [57.13577518412252]
本稿では, セマンティックセグメンテーションタスクとして定式化する, 斬新で広範囲なアプローチを提案する。
スクラッチから生成する代わりに、このような定式化は編集操作を導入し、単語レベルの編集行列の予測として問題を形作る。
私たちのアプローチは、推論における標準的なアプローチの4倍高速です。
論文 参考訳(メタデータ) (2020-09-28T09:29:49Z) - Recurrent Inference in Text Editing [6.4689151804633775]
本稿では,反復的に編集動作を行う新しい推論手法Recurrenceを提案する。
各イテレーションにおいて、部分的に編集されたテキストをエンコードするRecurrenceは、潜在表現をデコードし、短い、固定長のアクションを生成し、そのアクションを適用して単一の編集を完了させる。
総合的な比較として、算術演算子復元(AOR)、算術演算子単純化(AES)、算術演算子補正(AEC)の3種類のテキスト編集タスクを紹介する。
論文 参考訳(メタデータ) (2020-09-26T17:06:29Z) - Fact-aware Sentence Split and Rephrase with Permutation Invariant
Training [93.66323661321113]
Sentence Split と Rephrase は、複雑な文をいくつかの単純な文に分解し、その意味を保存することを目的としている。
従来の研究では、パラレル文対からのSeq2seq学習によってこの問題に対処する傾向があった。
本稿では,この課題に対するSeq2seq学習における順序分散の効果を検証するために,置換訓練を導入する。
論文 参考訳(メタデータ) (2020-01-16T07:30:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。