論文の概要: Neural Data-to-Text Generation with Dynamic Content Planning
- arxiv url: http://arxiv.org/abs/2004.07426v2
- Date: Mon, 20 Apr 2020 03:28:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 21:27:57.592415
- Title: Neural Data-to-Text Generation with Dynamic Content Planning
- Title(参考訳): 動的コンテンツ計画によるニューラルデータ・テキスト生成
- Authors: Kai Chen, Fayuan Li, Baotian Hu, Weihua Peng, Qingcai Chen and Hong Yu
- Abstract要約: 本稿では,NDP を略語として,動的コンテンツプランニングを用いたニューラルデータ・テキスト生成モデルを提案する。
NDPは、予め生成されたテキストを利用して、所定の構造化データから適切なエントリを動的に選択することができる。
実験結果から,NDPはROTOWIREデータセットの最先端よりも優れた性能を示した。
- 参考スコア(独自算出の注目度): 26.98332458548882
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural data-to-text generation models have achieved significant advancement
in recent years. However, these models have two shortcomings: the generated
texts tend to miss some vital information, and they often generate descriptions
that are not consistent with the structured input data. To alleviate these
problems, we propose a Neural data-to-text generation model with Dynamic
content Planning, named NDP for abbreviation. The NDP can utilize the
previously generated text to dynamically select the appropriate entry from the
given structured data. We further design a reconstruction mechanism with a
novel objective function that can reconstruct the whole entry of the used data
sequentially from the hidden states of the decoder, which aids the accuracy of
the generated text. Empirical results show that the NDP achieves superior
performance over the state-of-the-art on ROTOWIRE dataset, in terms of relation
generation (RG), content selection (CS), content ordering (CO) and BLEU
metrics. The human evaluation result shows that the texts generated by the
proposed NDP are better than the corresponding ones generated by NCP in most of
time. And using the proposed reconstruction mechanism, the fidelity of the
generated text can be further improved significantly.
- Abstract(参考訳): 近年,ニューラルデータ・テキスト生成モデルが大きく進歩している。
しかし、これらのモデルには2つの欠点がある: 生成されたテキストは重要な情報を見逃しがちであり、しばしばそれらは構造化された入力データと一致しない記述を生成する。
これらの問題を緩和するために,動的コンテンツプランニングを用いたニューラルデータ・テキスト生成モデルを提案する。
NDPは、予め生成されたテキストを利用して、所定の構造化データから適切なエントリを動的に選択することができる。
さらに、デコーダの隠れた状態から使用データの入力全体を順次再構築し、生成されたテキストの精度を高めることのできる、新しい目的関数による再構成機構の設計を行う。
実験の結果, ROTOWIREデータセットでは, 関係生成(RG), コンテンツ選択(CS), コンテンツ順序付け(CO), BLEUメトリクスにおいて, NDPは最先端のROTOWIREデータセットよりも優れた性能を示した。
人間の評価結果は,提案したNDPが生成したテキストが,ほとんどの場合,NCPが生成したテキストよりも優れていることを示している。
また、提案した再構成機構により、生成したテキストの忠実度をさらに向上させることができる。
関連論文リスト
- RegaVAE: A Retrieval-Augmented Gaussian Mixture Variational Auto-Encoder
for Language Modeling [79.56442336234221]
可変オートエンコーダ(VAE)に基づく検索拡張言語モデルであるRegaVAEを紹介する。
テキストコーパスを潜在空間にエンコードし、ソースとターゲットの両方のテキストから現在と将来の情報をキャプチャする。
各種データセットに対する実験結果から,テキスト生成品質と幻覚除去の大幅な改善が示された。
論文 参考訳(メタデータ) (2023-10-16T16:42:01Z) - Boosting Event Extraction with Denoised Structure-to-Text Augmentation [52.21703002404442]
イベント抽出は、テキストから事前に定義されたイベントトリガと引数を認識することを目的としている。
最近のデータ拡張手法は文法的誤りの問題を無視することが多い。
本稿では,イベント抽出DAEEのための記述構造からテキストへの拡張フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-16T16:52:07Z) - Comparing Computational Architectures for Automated Journalism [0.0]
本研究は、ブラジルポルトガル語のテキストを構造化データから生成する最もよく用いられる手法を比較した。
その結果、生成プロセスにおける明示的な中間ステップは、ニューラルエンド・ツー・エンドアーキテクチャによって生成されるものよりも優れたテキストを生成することが示唆された。
論文 参考訳(メタデータ) (2022-10-08T21:20:52Z) - Data-to-text Generation with Variational Sequential Planning [74.3955521225497]
非言語的な入力からテキスト出力を生成することを目的としたデータ・ツー・テキスト生成の課題について考察する。
協調的かつ有意義な方法で高レベルの情報を整理する責任を負う計画要素を付加したニューラルモデルを提案する。
我々は、計画と生成のステップをインターリーブしながら、構造化された変動モデルで逐次、潜在計画を推測する。
論文 参考訳(メタデータ) (2022-02-28T13:17:59Z) - Plan-then-Generate: Controlled Data-to-Text Generation via Planning [11.127156275580305]
ニューラルデータ-テキストモデルの制御性を改善するために,新しいプラン-then-Generate(PlanGen)フレームワークを提案する。
本モデルでは,生成した出力の文内構造と文間構造の両方を制御できる。
論文 参考訳(メタデータ) (2021-08-31T10:53:32Z) - SDA: Improving Text Generation with Self Data Augmentation [88.24594090105899]
自動データ拡張のための自己模倣学習フェーズを組み込むことにより,標準最大確率推定(MLE)パラダイムを改善することを提案する。
既存の文レベルの拡張戦略とは異なり,本手法はより汎用的で,任意のMLEベースの訓練手順に容易に適応できる。
論文 参考訳(メタデータ) (2021-01-02T01:15:57Z) - Lightweight, Dynamic Graph Convolutional Networks for AMR-to-Text
Generation [56.73834525802723]
軽量な動的グラフ畳み込みネットワーク (LDGCN) を提案する。
LDGCNは入力グラフから高次情報を合成することにより、よりリッチな非局所的な相互作用をキャプチャする。
我々は,グループグラフの畳み込みと重み付き畳み込みに基づく2つの新しいパラメータ保存戦略を開発し,メモリ使用量とモデル複雑性を低減する。
論文 参考訳(メタデータ) (2020-10-09T06:03:46Z) - Schema-Guided Natural Language Generation [13.11874946084068]
誘導自然言語生成(SG-NLG)の課題について紹介する。
SG-NLGでは、まだ自然言語プロンプトを生成することが目標であるが、SG-NLGでは、入力MRとコンテキスト情報を提供するリッチスキーマがペアリングされる。
このデータセットに基づいて、ニューラルネットワーク生成のためのさまざまな最先端モデルをトレーニングし、リッチスキーマ情報を含む多くのケースにおいて、私たちのモデルがより高い品質の出力を生成することができることを示す。
論文 参考訳(メタデータ) (2020-05-11T23:01:22Z) - POINTER: Constrained Progressive Text Generation via Insertion-based
Generative Pre-training [93.79766670391618]
ハードコントラストテキスト生成のための新しい挿入ベースアプローチであるPOINTERを提案する。
提案手法は,既存のトークン間で段階的に新しいトークンを並列に挿入することによって動作する。
結果として生じる粗大な階層構造は、生成プロセスを直感的で解釈可能である。
論文 参考訳(メタデータ) (2020-05-01T18:11:54Z) - Have Your Text and Use It Too! End-to-End Neural Data-to-Text Generation
with Semantic Fidelity [3.8673630752805432]
本稿では,ニューラルでエンドツーエンドなデータ・ツー・テキスト生成システムであるDataTunerを紹介する。
我々は2段階の世代レベルのアプローチを採り、微調整言語モデルと意味的忠実さを組み合わせた。
我々は、DataTunerが4つの主要なD2Tデータセットにまたがる自動メトリクスにおいて、技術結果の状態を達成していることを示す。
論文 参考訳(メタデータ) (2020-04-08T11:16:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。