論文の概要: Controlling Text Edition by Changing Answers of Specific Questions
- arxiv url: http://arxiv.org/abs/2105.11018v1
- Date: Sun, 23 May 2021 20:44:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 15:33:35.129550
- Title: Controlling Text Edition by Changing Answers of Specific Questions
- Title(参考訳): 特定の質問に対する回答の変更によるテキストの編集制御
- Authors: Lei Sha, Patrick Hohenecker, Thomas Lukasiewicz
- Abstract要約: 制御可能なテキストエディションの新しいタスクを紹介します。
我々は、長いテキスト、質問、ターゲットの回答を入力として取り、出力は最小限の変更されたテキストである。
このタスクは、いくつかの条件、結果、または法的文書のプロパティを変更するなど、多くの状況において非常に重要である。
- 参考スコア(独自算出の注目度): 44.12998895830244
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, we introduce the new task of controllable text edition, in
which we take as input a long text, a question, and a target answer, and the
output is a minimally modified text, so that it fits the target answer. This
task is very important in many situations, such as changing some conditions,
consequences, or properties in a legal document, or changing some key
information of an event in a news text. This is very challenging, as it is hard
to obtain a parallel corpus for training, and we need to first find all text
positions that should be changed and then decide how to change them. We
constructed the new dataset WikiBioCTE for this task based on the existing
dataset WikiBio (originally created for table-to-text generation). We use
WikiBioCTE for training, and manually labeled a test set for testing. We also
propose novel evaluation metrics and a novel method for solving the new task.
Experimental results on the test set show that our proposed method is a good
fit for this novel NLP task.
- Abstract(参考訳): 本稿では,長文,質問文,対象回答を入力とし,出力を最小限に修正したテキストとし,対象回答に適合させる,制御可能なテキストエディションの新たなタスクを提案する。
このタスクは、法律文書の条件や結果、プロパティを変更したり、ニューステキストでイベントの重要な情報を変更したりするなど、多くの状況において非常に重要である。
トレーニングのための並列コーパスを得るのは非常に難しく、まず変更すべきすべてのテキスト位置を見つけ、それから変更方法を決定する必要があるため、これは非常に難しいことです。
我々は,既存のデータセット WikiBio (もともとはテーブル・ツー・テキスト生成用に作成された) に基づいて,このタスクのための新しいデータセット WikiBioCTE を構築した。
トレーニングにはWikiBioCTEを使用し、手動でテストセットをラベル付けしています。
また,新しい課題を解くための新しい評価指標と新しい方法を提案する。
実験結果から,提案手法は新たなNLPタスクに適していることがわかった。
関連論文リスト
- WikiIns: A High-Quality Dataset for Controlled Text Editing by Natural
Language Instruction [56.196512595940334]
WikiInsは高品質な制御されたテキスト編集データセットで、情報性が向上している。
高品質なアノテートデータセットを用いて,大規模な銀のトレーニングセットを生成するための自動アプローチを提案する。
論文 参考訳(メタデータ) (2023-10-08T04:46:39Z) - Reducing Sequence Length by Predicting Edit Operations with Large
Language Models [50.66922361766939]
本稿では,ローカルなシーケンス変換タスクに対して,ソーステキストの編集スパンを予測することを提案する。
編集スパンの監督データに大規模言語モデルに対する命令チューニングを適用する。
実験の結果,提案手法は4つのタスクにおいて,ベースラインに匹敵する性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-05-19T17:51:05Z) - Zero-shot Learning by Generating Task-specific Adapters [38.452434222367515]
タスク記述からタスク固有のアダプタを生成するためのハイパーネットワークをトレーニングすることで、ゼロショット転送性を改善するフレームワークであるHypterを紹介する。
この定式化はタスクレベルでの学習を可能にし、軽量アダプタを使用することでパラメータの数を大幅に削減する。
論文 参考訳(メタデータ) (2021-01-02T10:50:23Z) - Text Editing by Command [82.50904226312451]
ニューラルテキスト生成における一般的なパラダイムは、単一のステップでテキストを生成するワンショット生成である。
この制限をユーザが既存のテキストを編集するコマンドを発行することでシステムと対話するインタラクティブテキスト生成設定で解決する。
このデータセットに基づいてトレーニングされたトランスフォーマーベースモデルであるInteractive Editorは,ベースラインを上回り,自動評価と人的評価の両方において肯定的な結果が得られることを示す。
論文 参考訳(メタデータ) (2020-10-24T08:00:30Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z) - Fact-based Text Editing [11.115292572080131]
textscFactEditorは、バッファ、ストリーム、メモリを使用して与えられた事実を参照することで、ドラフトテキストを編集する。
textscFactEditorは、エンコーダ-デコーダアプローチよりも高速に推論を実行する。
論文 参考訳(メタデータ) (2020-07-02T06:50:30Z) - Learning to Select Bi-Aspect Information for Document-Scale Text Content
Manipulation [50.01708049531156]
我々は、テキストスタイルの転送とは逆の文書スケールのテキストコンテンツ操作という、新しい実践的なタスクに焦点を当てる。
詳細は、入力は構造化されたレコードと、別のレコードセットを記述するための参照テキストのセットである。
出力は、ソースレコードセットの部分的内容と参照の書き込みスタイルを正確に記述した要約である。
論文 参考訳(メタデータ) (2020-02-24T12:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。