論文の概要: Informative Text Generation from Knowledge Triples
- arxiv url: http://arxiv.org/abs/2209.12733v1
- Date: Mon, 26 Sep 2022 14:35:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 15:58:56.574105
- Title: Informative Text Generation from Knowledge Triples
- Title(参考訳): 知識三重項からの情報テキスト生成
- Authors: Zihao Fu, Yijiang River Dong, Lidong Bing, Wai Lam
- Abstract要約: 本稿では,トレーニング中に学習した有用な知識を記憶するために,メモリネットワークを利用した新しいメモリ拡張ジェネレータを提案する。
我々は、新しい設定のためのWebNLGからデータセットを導き、我々のモデルの有効性を調べるための広範な実験を行う。
- 参考スコア(独自算出の注目度): 56.939571343797304
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As the development of the encoder-decoder architecture, researchers are able
to study the text generation tasks with broader types of data. Among them,
KB-to-text aims at converting a set of knowledge triples into human readable
sentences. In the original setting, the task assumes that the input triples and
the text are exactly aligned in the perspective of the embodied
knowledge/information. In this paper, we extend this setting and explore how to
facilitate the trained model to generate more informative text, namely,
containing more information about the triple entities but not conveyed by the
input triples. To solve this problem, we propose a novel memory augmented
generator that employs a memory network to memorize the useful knowledge
learned during the training and utilizes such information together with the
input triples to generate text in the operational or testing phase. We derive a
dataset from WebNLG for our new setting and conduct extensive experiments to
investigate the effectiveness of our model as well as uncover the intrinsic
characteristics of the setting.
- Abstract(参考訳): エンコーダ・デコーダアーキテクチャの開発により、研究者はより広い種類のデータを用いてテキスト生成タスクを研究できる。
KB-to-textは、知識の集合を人間の読みやすい文に変換することを目的としている。
元の設定では、入力三重項とテキストは具体的知識/情報の観点から正確に一致していると仮定する。
本稿では、この設定を拡張し、学習モデルによりより情報的なテキストを生成する方法、すなわち、入力三重項によって伝達されない三重項に関するより多くの情報を含む方法を検討する。
そこで本研究では、メモリネットワークを利用してトレーニング中に学習した有用な知識を記憶し、入力三重項と共にそのような情報を用いて操作・テスト段階のテキストを生成する新しいメモリ拡張ジェネレータを提案する。
新しい設定のためにwebnlgからデータセットを導出し、我々のモデルの有効性と設定の本質的特徴を明らかにするために広範囲な実験を行います。
関連論文リスト
- Stylized Data-to-Text Generation: A Case Study in the E-Commerce Domain [53.22419717434372]
本稿では,特定のスタイルに従ってコヒーレントテキストを生成することを目的とした新しいタスク,すなわちスタイル化されたデータ・テキスト生成を提案する。
このタスクは、生成されたテキストのロジック、構造化されていないスタイル参照、バイアスのあるトレーニングサンプルという3つの課題のため、簡単ではない。
本稿では,論理計画型データ埋め込み,マスク型スタイル埋め込み,非バイアス型スタイリングテキスト生成の3つのコンポーネントからなる,新しいスタイル付きデータ・テキスト生成モデルであるStyleD2Tを提案する。
論文 参考訳(メタデータ) (2023-05-05T03:02:41Z) - Few-Shot Table-to-Text Generation with Prompt Planning and Knowledge
Memorization [41.20314472839442]
数ショット設定でテーブル・ツー・テキスト生成をターゲットとするPromptMizeという新しいフレームワークを提案する。
私たちのフレームワークの設計は、プロンプトプランナーと知識アダプタの2つの側面で構成されています。
本モデルは,人的・自動的な評価によって判断される品質を著しく向上させる。
論文 参考訳(メタデータ) (2023-02-09T03:04:11Z) - TegTok: Augmenting Text Generation via Task-specific and Open-world
Knowledge [83.55215993730326]
本稿では,タスク固有およびオープンワールド知識(TegTok)によるTExt生成の統一化を提案する。
本モデルでは,2種類の知識ソースからの知識エントリを高密度検索により選択し,それぞれ入力エンコーディングと出力デコーディングの段階に注入する。
論文 参考訳(メタデータ) (2022-03-16T10:37:59Z) - Attention Is Indeed All You Need: Semantically Attention-Guided Decoding
for Data-to-Text NLG [0.913755431537592]
本稿では,エンコーダ・デコーダモデルのクロスアテンションから解釈可能な情報を抽出する新しい復号法を提案する。
生成した出力のセマンティックエラーを劇的に低減する3つのデータセットを示す。
論文 参考訳(メタデータ) (2021-09-15T01:42:51Z) - Constructing Flow Graphs from Procedural Cybersecurity Texts [16.09313316086535]
我々はサイバーセキュリティドメイン(3154文書)に大規模な注釈付き手続き型テキストデータセット(CTFW)を構築した。
本稿では,このようなテキストから関連情報を識別し,文間の情報フローを生成することを提案する。
実験の結果,BERT文を埋め込んだグラフ畳み込みネットワークは,3つの領域すべてでBERTよりも優れていた。
論文 参考訳(メタデータ) (2021-05-29T19:06:35Z) - A Survey of Knowledge-Enhanced Text Generation [81.24633231919137]
テキスト生成の目標は、機械を人間の言語で表現できるようにすることである。
入力テキストを出力テキストにマッピングすることを学ぶことで、目的を達成するために、様々なニューラルエンコーダデコーダモデルが提案されている。
この問題に対処するために、研究者は入力テキスト以外の様々な種類の知識を生成モデルに組み込むことを検討してきた。
論文 参考訳(メタデータ) (2020-10-09T06:46:46Z) - ENT-DESC: Entity Description Generation by Exploring Knowledge Graph [53.03778194567752]
実際には、出力記述が最も重要な知識のみをカバーするため、入力知識は十分以上である可能性がある。
我々は、KG-to-textにおけるこのような実践的なシナリオの研究を容易にするために、大規模で挑戦的なデータセットを導入する。
本稿では,元のグラフ情報をより包括的に表現できるマルチグラフ構造を提案する。
論文 参考訳(メタデータ) (2020-04-30T14:16:19Z) - Exploiting Structured Knowledge in Text via Graph-Guided Representation
Learning [73.0598186896953]
本稿では、知識グラフからのガイダンスを用いて、生テキスト上で学習する2つの自己教師型タスクを提案する。
エンティティレベルのマスキング言語モデルに基づいて、最初のコントリビューションはエンティティマスキングスキームです。
既存のパラダイムとは対照的に,本手法では事前学習時にのみ,知識グラフを暗黙的に使用する。
論文 参考訳(メタデータ) (2020-04-29T14:22:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。