論文の概要: Recurrent Inference in Text Editing
- arxiv url: http://arxiv.org/abs/2009.12643v2
- Date: Wed, 30 Sep 2020 04:12:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 08:55:04.110094
- Title: Recurrent Inference in Text Editing
- Title(参考訳): テキスト編集における繰り返し推論
- Authors: Ning Shi, Ziheng Zeng, Haotian Zhang, Yichen Gong
- Abstract要約: 本稿では,反復的に編集動作を行う新しい推論手法Recurrenceを提案する。
各イテレーションにおいて、部分的に編集されたテキストをエンコードするRecurrenceは、潜在表現をデコードし、短い、固定長のアクションを生成し、そのアクションを適用して単一の編集を完了させる。
総合的な比較として、算術演算子復元(AOR)、算術演算子単純化(AES)、算術演算子補正(AEC)の3種類のテキスト編集タスクを紹介する。
- 参考スコア(独自算出の注目度): 6.4689151804633775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In neural text editing, prevalent sequence-to-sequence based approaches
directly map the unedited text either to the edited text or the editing
operations, in which the performance is degraded by the limited source text
encoding and long, varying decoding steps. To address this problem, we propose
a new inference method, Recurrence, that iteratively performs editing actions,
significantly narrowing the problem space. In each iteration, encoding the
partially edited text, Recurrence decodes the latent representation, generates
an action of short, fixed-length, and applies the action to complete a single
edit. For a comprehensive comparison, we introduce three types of text editing
tasks: Arithmetic Operators Restoration (AOR), Arithmetic Equation
Simplification (AES), Arithmetic Equation Correction (AEC). Extensive
experiments on these tasks with varying difficulties demonstrate that
Recurrence achieves improvements over conventional inference methods.
- Abstract(参考訳): ニューラルテキスト編集では、未編集テキストを編集テキストまたは編集操作に直接マッピングし、限られたソーステキストエンコーディングと長い復号ステップによって性能が低下する。
そこで本研究では, 反復的な編集作業を行い, 問題空間を著しく狭める新しい推定法を提案する。
各イテレーションにおいて、部分的に編集されたテキストをエンコードするRecurrenceは、潜在表現をデコードし、短い固定長のアクションを生成し、単一の編集を完了させる。
包括的に比較するために,算術演算子復元(aor),算術方程式単純化(aes),算術方程式修正(aec)という3種類のテキスト編集タスクを導入する。
これらの課題に対する多種多様な実験により,従来の推論手法よりも改善が得られた。
関連論文リスト
- Edit-Constrained Decoding for Sentence Simplification [16.795671075667205]
文単純化のための語彙制約付きデコードに基づく編集操作を提案する。
提案手法は, この課題によく用いられる3つの英語単純化コーパスにおいて, 従来よりも一貫して優れていた。
論文 参考訳(メタデータ) (2024-09-28T05:39:50Z) - Task-Oriented Diffusion Inversion for High-Fidelity Text-based Editing [60.730661748555214]
textbfTask-textbfOriented textbfDiffusion textbfInversion (textbfTODInv) は、特定の編集タスクに適した実際の画像を反転して編集する新しいフレームワークである。
ToDInvは相互最適化によってインバージョンと編集をシームレスに統合し、高い忠実さと正確な編集性を保証する。
論文 参考訳(メタデータ) (2024-08-23T22:16:34Z) - Object-aware Inversion and Reassembly for Image Editing [61.19822563737121]
オブジェクトレベルのきめ細かい編集を可能にするために,オブジェクト認識型インバージョンと再アセンブリ(OIR)を提案する。
画像の編集時に各編集ペアに対して最適な反転ステップを見つけるために,検索基準を用いる。
本手法は,オブジェクトの形状,色,材料,カテゴリなどの編集において,特に多目的編集シナリオにおいて優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-10-18T17:59:02Z) - Non-autoregressive Text Editing with Copy-aware Latent Alignments [31.756401120004977]
遅延CTCアライメントによる編集プロセスをモデル化し,非自己回帰テキスト編集手法を提案する。
提案手法は既存のSeq2Editモデルよりも優れており,Seq2Seqと同等あるいはそれ以上の精度で4時間以上の高速化を実現している。
In-deepth Analysisでは,様々なシナリオ下での堅牢性と,流動的で柔軟な出力を生成する手法の強みを明らかにしている。
論文 参考訳(メタデータ) (2023-10-11T19:02:57Z) - Reducing Sequence Length by Predicting Edit Operations with Large
Language Models [50.66922361766939]
本稿では,ローカルなシーケンス変換タスクに対して,ソーステキストの編集スパンを予測することを提案する。
編集スパンの監督データに大規模言語モデルに対する命令チューニングを適用する。
実験の結果,提案手法は4つのタスクにおいて,ベースラインに匹敵する性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-05-19T17:51:05Z) - Text Editing as Imitation Game [33.418628166176234]
動作クローンを用いた模倣ゲームとしてテキスト編集を再構成する。
我々は、アクショントークン間の依存関係を保持しながら、デコーディングを並列化するデュアルデコーダ構造を導入する。
私たちのモデルは、パフォーマンス、効率、堅牢性の点で、自己回帰ベースラインを一貫して上回ります。
論文 参考訳(メタデータ) (2022-10-21T22:07:04Z) - Composable Text Controls in Latent Space with ODEs [97.12426987887021]
本稿では,コンパクトテキスト空間における構成可能なテキスト操作のための,新しい効率的なアプローチを提案する。
事前学習したLMを効率よく適応することで、サンプルベクトルを所望のテキストシーケンスにデコードする。
実験により、我々のアプローチ内でこれらの演算子を構成すると、高品質なテキストの生成や編集が可能であることが示された。
論文 参考訳(メタデータ) (2022-08-01T06:51:45Z) - Text Revision by On-the-Fly Representation Optimization [76.11035270753757]
現在の最先端手法は、これらのタスクをシーケンスからシーケンスまでの学習問題として定式化している。
並列データを必要としないテキストリビジョンのための反復的なインプレース編集手法を提案する。
テキストの単純化に関する最先端の教師付き手法よりも、競争力があり、パフォーマンスも向上する。
論文 参考訳(メタデータ) (2022-04-15T07:38:08Z) - GRS: Combining Generation and Revision in Unsupervised Sentence
Simplification [7.129708913903111]
テキスト生成とテキストリビジョンを組み合わせた文単純化のための教師なしアプローチを提案する。
まず、明示的な編集操作を用いて入力文を書き換える反復的なフレームワークから始め、新しい編集操作としてパラフレーズを追加する。
パラフレーズ化は複雑な編集操作をキャプチャし、明示的な編集操作を反復的に使用することで、制御性と解釈性を提供する。
論文 参考訳(メタデータ) (2022-03-18T04:52:54Z) - Learning Structural Edits via Incremental Tree Transformations [102.64394890816178]
構造化データのインクリメンタルな編集(すなわち「構造的編集」)のための汎用モデルを提案する。
我々の編集者は、反復的にツリー編集(例えば、サブツリーの削除や追加)を生成し、部分的に編集されたデータに適用することを学びます。
提案したエディタを2つのソースコード編集データセットで評価した結果,提案する編集エンコーダでは,従来よりも精度が向上していることがわかった。
論文 参考訳(メタデータ) (2021-01-28T16:11:32Z) - Seq2Edits: Sequence Transduction Using Span-level Edit Operations [10.785577504399077]
Seq2Editsは自然言語処理(NLP)タスクのシーケンス編集のためのオープン語彙のアプローチである。
我々は5つのNLPタスク(テキスト正規化、文融合、文分割と言い換え、テキスト単純化、文法的誤り訂正)における手法を評価する。
文法的誤り訂正では,全列モデルと比較して最大5.2倍の速度で推論を高速化する。
論文 参考訳(メタデータ) (2020-09-23T13:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。