論文の概要: High Recall Data-to-text Generation with Progressive Edit
- arxiv url: http://arxiv.org/abs/2208.04558v1
- Date: Tue, 9 Aug 2022 06:22:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-10 12:11:18.968228
- Title: High Recall Data-to-text Generation with Progressive Edit
- Title(参考訳): プログレッシブ編集による高リコールデータテキスト生成
- Authors: Choonghan Kim and Gary Geunbae Lee
- Abstract要約: Transformer (T5) ベースのモデルは、構造化された入力から非対称な文からなる出力を生成する。
我々はこの現象を「非対称生成」と呼び、これをD2T生成で活用する。
ProEditは、D2T生成のパフォーマンスを改善するためのシンプルだが効果的な方法である。
- 参考スコア(独自算出の注目度): 2.5838973036257458
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data-to-text (D2T) generation is the task of generating texts from structured
inputs. We observed that when the same target sentence was repeated twice,
Transformer (T5) based model generates an output made up of asymmetric
sentences from structured inputs. In other words, these sentences were
different in length and quality. We call this phenomenon "Asymmetric
Generation" and we exploit this in D2T generation. Once asymmetric sentences
are generated, we add the first part of the output with a no-repeated-target.
As this goes through progressive edit (ProEdit), the recall increases. Hence,
this method better covers structured inputs than before editing. ProEdit is a
simple but effective way to improve performance in D2T generation and it
achieves the new stateof-the-art result on the ToTTo dataset
- Abstract(参考訳): Data-to-text (D2T) は構造化された入力からテキストを生成するタスクである。
我々は,同じ文を2回繰り返すと,構造化された入力から非対称な文からなる出力をトランスフォーマー(T5)モデルで生成することを示した。
言い換えれば、これらの文の長さと質は異なる。
我々はこの現象を「非対称生成」と呼び、これをD2T生成で活用する。
非対称文が生成されると、出力の最初の部分を無繰り返しターゲットで加算する。
プログレッシブ・エディット (progressive edit, proedit) が進むにつれ、リコールは増加する。
したがって、この方法は編集前よりも構造化された入力をよりよくカバーする。
ProEditは、D2T生成のパフォーマンスを改善するためのシンプルだが効果的な方法であり、ToTToデータセットで新しい最先端結果を達成する。
関連論文リスト
- Unifying Structured Data as Graph for Data-to-Text Pre-Training [69.96195162337793]
Data-to-text (D2T) の生成は、構造化されたデータを自然言語テキストに変換することを目的としている。
データからテキストへの事前学習は、D2T生成の強化に強力であることが証明された。
構造強化トランスを設計し,D2T生成のための構造強化事前学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T12:23:49Z) - Text Revision by On-the-Fly Representation Optimization [76.11035270753757]
現在の最先端手法は、これらのタスクをシーケンスからシーケンスまでの学習問題として定式化している。
並列データを必要としないテキストリビジョンのための反復的なインプレース編集手法を提案する。
テキストの単純化に関する最先端の教師付き手法よりも、競争力があり、パフォーマンスも向上する。
論文 参考訳(メタデータ) (2022-04-15T07:38:08Z) - AGGGEN: Ordering and Aggregating while Generating [12.845842212733695]
本稿では,2つの明示的な文計画段階をニューラルデータ・トゥ・テキストシステムに再導入するデータ・ツー・テキスト・モデルAGGGENを提案する。
AGGGENは、入力表現とターゲットテキスト間の遅延アライメントを学習してテキストを生成すると同時に、文計画を実行する。
論文 参考訳(メタデータ) (2021-06-10T08:14:59Z) - Sketch and Refine: Towards Faithful and Informative Table-to-Text
Generation [58.320248632121476]
自己回帰世代と非自己回帰世代(SANA)を組み合わせた新しい2段階法を提案する。
提案手法は,(1)ソーステーブルからキートークンを選択するための自己回帰ポインタネットワークを用いた骨格生成,(2)反復挿入と削除操作によるテキスト生成のための編集ベースの非自己回帰生成モデルを含む。
骨格から厳しい制約を統合することで、非自己回帰モデルはソーステーブル上の生成のカバレッジを改善し、その忠実性を高める。
論文 参考訳(メタデータ) (2021-05-31T08:18:13Z) - Evaluating Semantic Accuracy of Data-to-Text Generation with Natural
Language Inference [3.42658286826597]
データ・トゥ・テキスト(D2T)の生成を評価する上での大きな課題は、生成されたテキストの意味的精度を測定することである。
我々は、自然言語推論(NLI)のために事前訓練されたニューラルネットワークモデルに基づいて、D2T生成の意味的精度を評価するための新しい指標を提案する。
近年の2つのD2Tデータセットに対する実験により, 誤ったシステム出力の同定において, 精度の高い測定値が得られた。
論文 参考訳(メタデータ) (2020-11-21T16:37:28Z) - Data-to-Text Generation with Iterative Text Editing [3.42658286826597]
本稿では,反復的テキスト編集に基づく新しいデータ・テキスト生成手法を提案する。
まず、自明なテンプレートを用いてデータ項目をテキストに変換し、その後、文融合タスクのために訓練されたニューラルモデルにより結果のテキストを反復的に改善する。
モデルの出力は単純で、既製の事前訓練言語モデルで再帰的にフィルタリングされる。
論文 参考訳(メタデータ) (2020-11-03T13:32:38Z) - Text Editing by Command [82.50904226312451]
ニューラルテキスト生成における一般的なパラダイムは、単一のステップでテキストを生成するワンショット生成である。
この制限をユーザが既存のテキストを編集するコマンドを発行することでシステムと対話するインタラクティブテキスト生成設定で解決する。
このデータセットに基づいてトレーニングされたトランスフォーマーベースモデルであるInteractive Editorは,ベースラインを上回り,自動評価と人的評価の両方において肯定的な結果が得られることを示す。
論文 参考訳(メタデータ) (2020-10-24T08:00:30Z) - Composed Fine-Tuning: Freezing Pre-Trained Denoising Autoencoders for
Improved Generalization [93.95299500688286]
本稿では,出力の妥当性制約を考慮した構造化出力の予測問題に焦点をあてる。
本稿では,事前学習したデノイザを組み込んだ予測器を微調整するファインチューニングを提案する。
2層ReLUネットワークの場合、構成した微調整が予測器の複雑さを著しく低減することを示す。
論文 参考訳(メタデータ) (2020-06-29T17:14:35Z) - POINTER: Constrained Progressive Text Generation via Insertion-based
Generative Pre-training [93.79766670391618]
ハードコントラストテキスト生成のための新しい挿入ベースアプローチであるPOINTERを提案する。
提案手法は,既存のトークン間で段階的に新しいトークンを並列に挿入することによって動作する。
結果として生じる粗大な階層構造は、生成プロセスを直感的で解釈可能である。
論文 参考訳(メタデータ) (2020-05-01T18:11:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。