論文の概要: Fact-based Text Editing
- arxiv url: http://arxiv.org/abs/2007.00916v1
- Date: Thu, 2 Jul 2020 06:50:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 14:08:49.476821
- Title: Fact-based Text Editing
- Title(参考訳): 事実に基づくテキスト編集
- Authors: Hayate Iso, Chao Qiao, Hang Li
- Abstract要約: textscFactEditorは、バッファ、ストリーム、メモリを使用して与えられた事実を参照することで、ドラフトテキストを編集する。
textscFactEditorは、エンコーダ-デコーダアプローチよりも高速に推論を実行する。
- 参考スコア(独自算出の注目度): 11.115292572080131
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel text editing task, referred to as \textit{fact-based text
editing}, in which the goal is to revise a given document to better describe
the facts in a knowledge base (e.g., several triples). The task is important in
practice because reflecting the truth is a common requirement in text editing.
First, we propose a method for automatically generating a dataset for research
on fact-based text editing, where each instance consists of a draft text, a
revised text, and several facts represented in triples. We apply the method
into two public table-to-text datasets, obtaining two new datasets consisting
of 233k and 37k instances, respectively. Next, we propose a new neural network
architecture for fact-based text editing, called \textsc{FactEditor}, which
edits a draft text by referring to given facts using a buffer, a stream, and a
memory. A straightforward approach to address the problem would be to employ an
encoder-decoder model. Our experimental results on the two datasets show that
\textsc{FactEditor} outperforms the encoder-decoder approach in terms of
fidelity and fluency. The results also show that \textsc{FactEditor} conducts
inference faster than the encoder-decoder approach.
- Abstract(参考訳): 本稿では,知識ベース(例えば,いくつかの三重項)における事実をよりよく記述するために,与えられた文書を改訂することを目的とした,新しいテキスト編集タスクである \textit{fact-based text editing} を提案する。
なぜなら、真実を反映することはテキスト編集において一般的な要件であるからである。
まず、各インスタンスがドラフトテキスト、改訂テキスト、およびトリプルで表現された複数の事実からなる、事実ベースのテキスト編集の研究のためのデータセットを自動生成する手法を提案する。
この手法を2つの公開テーブルツーテキストデータセットに適用し,それぞれ233kインスタンスと37kインスタンスからなる2つの新しいデータセットを得る。
次に,バッファ,ストリーム,メモリを用いて与えられた事実を参照してドラフトテキストを編集する,事実ベースのテキスト編集のための新たなニューラルネットワークアーキテクチャ, \textsc{facteditor}を提案する。
この問題に対処するための簡単なアプローチは、エンコーダ-デコーダモデルを採用することである。
この2つのデータセットの実験結果から, エンコーダとデコーダのアプローチの精度は, 忠実度と流布率で優れていた。
結果はまた、textsc{FactEditor} が encoder-decoder アプローチよりも高速に推論を行うことを示している。
関連論文リスト
- WikiIns: A High-Quality Dataset for Controlled Text Editing by Natural
Language Instruction [56.196512595940334]
WikiInsは高品質な制御されたテキスト編集データセットで、情報性が向上している。
高品質なアノテートデータセットを用いて,大規模な銀のトレーニングセットを生成するための自動アプローチを提案する。
論文 参考訳(メタデータ) (2023-10-08T04:46:39Z) - DreamEditor: Text-Driven 3D Scene Editing with Neural Fields [115.07896366760876]
テキストプロンプトを用いてニューラルフィールドを編集できる新しいフレームワークを提案する。
DreamEditorは非常に現実的なテクスチャと幾何学を生成し、量的および質的な評価において、以前の作品を大きく上回っている。
論文 参考訳(メタデータ) (2023-06-23T11:53:43Z) - Exploring Stroke-Level Modifications for Scene Text Editing [86.33216648792964]
シーンテキスト編集(STE)は、元のテキストの背景とスタイルを保存しながら、テキストを所望のテキストに置き換えることを目的としている。
画像全体を編集するには、背景領域とテキスト領域の異なる翻訳規則を同時に学習する必要がある。
Scene Text Image at strokE Level (MOSTEL) を用いた新しいネットワークを提案する。
論文 参考訳(メタデータ) (2022-12-05T02:10:59Z) - Text Revision by On-the-Fly Representation Optimization [76.11035270753757]
現在の最先端手法は、これらのタスクをシーケンスからシーケンスまでの学習問題として定式化している。
並列データを必要としないテキストリビジョンのための反復的なインプレース編集手法を提案する。
テキストの単純化に関する最先端の教師付き手法よりも、競争力があり、パフォーマンスも向上する。
論文 参考訳(メタデータ) (2022-04-15T07:38:08Z) - Understanding Iterative Revision from Human-Written Text [10.714872525208385]
IteraTeRは、反復的に修正されたテキストの最初の大規模、複数ドメイン、編集意図の注釈付きコーパスである。
テキストのリビジョンプロセスをよりよく理解し、編集意図と執筆品質の間に重要なつながりを築き上げます。
論文 参考訳(メタデータ) (2022-03-08T01:47:42Z) - Assessing the Effectiveness of Syntactic Structure to Learn Code Edit
Representations [2.1793134762413433]
ソースコード編集の表現には抽象構文木(AST)の構造情報を用いる。
code2seqアプローチに触発されて,ASTの構造情報の利用がコード編集のタスクにどのように役立つかを評価する。
論文 参考訳(メタデータ) (2021-06-11T01:23:07Z) - Learning Structural Edits via Incremental Tree Transformations [102.64394890816178]
構造化データのインクリメンタルな編集(すなわち「構造的編集」)のための汎用モデルを提案する。
我々の編集者は、反復的にツリー編集(例えば、サブツリーの削除や追加)を生成し、部分的に編集されたデータに適用することを学びます。
提案したエディタを2つのソースコード編集データセットで評価した結果,提案する編集エンコーダでは,従来よりも精度が向上していることがわかった。
論文 参考訳(メタデータ) (2021-01-28T16:11:32Z) - Text Editing by Command [82.50904226312451]
ニューラルテキスト生成における一般的なパラダイムは、単一のステップでテキストを生成するワンショット生成である。
この制限をユーザが既存のテキストを編集するコマンドを発行することでシステムと対話するインタラクティブテキスト生成設定で解決する。
このデータセットに基づいてトレーニングされたトランスフォーマーベースモデルであるInteractive Editorは,ベースラインを上回り,自動評価と人的評価の両方において肯定的な結果が得られることを示す。
論文 参考訳(メタデータ) (2020-10-24T08:00:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。