論文の概要: Topic-to-Essay Generation with Comprehensive Knowledge Enhancement
- arxiv url: http://arxiv.org/abs/2106.15142v1
- Date: Tue, 29 Jun 2021 08:01:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-30 15:30:20.518764
- Title: Topic-to-Essay Generation with Comprehensive Knowledge Enhancement
- Title(参考訳): 包括的知識向上によるトピック・ツー・エッセイ生成
- Authors: Zhiyue Liu, Jiahai Wang, Zhenghong Li
- Abstract要約: 本稿では,内部知識と外部知識の両方から情報を抽出し,エッセイ生成を改善することを目的とする。
内部知識の強化のために、トピックと関連するエッセイの両方を、情報源情報として教師ネットワークに供給する。
外部知識向上のために,トピック知識グラフエンコーダを提案する。
- 参考スコア(独自算出の注目度): 8.373915325503289
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generating high-quality and diverse essays with a set of topics is a
challenging task in natural language generation. Since several given topics
only provide limited source information, utilizing various topic-related
knowledge is essential for improving essay generation performance. However,
previous works cannot sufficiently use that knowledge to facilitate the
generation procedure. This paper aims to improve essay generation by extracting
information from both internal and external knowledge. Thus, a topic-to-essay
generation model with comprehensive knowledge enhancement, named TEGKE, is
proposed. For internal knowledge enhancement, both topics and related essays
are fed to a teacher network as source information. Then, informative features
would be obtained from the teacher network and transferred to a student network
which only takes topics as input but provides comparable information compared
with the teacher network. For external knowledge enhancement, a topic knowledge
graph encoder is proposed. Unlike the previous works only using the nearest
neighbors of topics in the commonsense base, our topic knowledge graph encoder
could exploit more structural and semantic information of the commonsense
knowledge graph to facilitate essay generation. Moreover, the adversarial
training based on the Wasserstein distance is proposed to improve generation
quality. Experimental results demonstrate that TEGKE could achieve
state-of-the-art performance on both automatic and human evaluation.
- Abstract(参考訳): 一連のトピックによる高品質で多様なエッセイの生成は、自然言語生成において難しい課題である。
いくつかのトピックは限られた情報源情報しか提供しないため、エッセイ生成性能を向上させるには様々なトピック関連知識を活用することが不可欠である。
しかし、それまでの作品は、その知識を十分に利用して、生成手順を容易にすることはできない。
本稿では,内部知識と外部知識の両方から情報を抽出し,エッセイ生成を改善することを目的とする。
そこで,TEGKEと呼ばれる包括的知識向上を伴うトピック・ツー・エッセイ生成モデルを提案する。
内部知識の強化のために、トピックと関連するエッセイの両方をソース情報として教師ネットワークに送付する。
そして、教師ネットワークから情報的特徴を取得し、トピックのみを入力として、教師ネットワークと同等の情報を提供する学生ネットワークに転送する。
外部知識向上のために,トピック知識グラフエンコーダを提案する。
コモンセンスベースにおけるトピックの最も近い近傍のみを使用する以前の作品とは異なり、我々のトピックナレッジグラフエンコーダは、エッセイ生成を容易にするために、コモンセンスナレッジグラフのより構造的かつ意味的な情報を利用することができる。
さらに,wasserstein距離に基づく敵対的トレーニングにより,生成品質の向上が期待できる。
実験の結果,tegkeは自動評価と人間評価の両方において最先端のパフォーマンスを達成できた。
関連論文リスト
- Artificial Intelligence Driven Course Generation: A Case Study Using ChatGPT [0.0]
本研究は,ChatGPTを教材として活用することを目的としている。
主な目的は、AI駆動コース生成の効率、品質、および影響を評価することである。
この研究は、AIが教育コンテンツ制作に革命をもたらす可能性を強調している。
論文 参考訳(メタデータ) (2024-11-02T21:59:02Z) - Towards Knowledge-Grounded Natural Language Understanding and Generation [1.450405446885067]
この論文は、トランスフォーマーモデルによる自然言語の理解と生成が、モデルに知識表現を組み込むことの利点について考察する。
この論文では、関連性のある、最新のエンティティの知識を取り入れることで、偽ニュース検出の恩恵を受ける。
パラメトリックな知識や蒸留された知識といった他の一般的な知識は、多言語および多言語的な知識集約的なタスクを強化することが確立されている。
論文 参考訳(メタデータ) (2024-03-22T17:32:43Z) - Beyond Factuality: A Comprehensive Evaluation of Large Language Models
as Knowledge Generators [78.63553017938911]
大規模言語モデル(LLM)は、下流の知識集約タスクのための情報検索技術より優れている。
しかし、コミュニティの懸念は、この無検閲の知識を使用することの事実と潜在的意味について多岐にわたる。
本研究では,6つの重要な視点から生成した知識を評価するために設計されたCONNERを紹介する。
論文 参考訳(メタデータ) (2023-10-11T08:22:37Z) - Informative Text Generation from Knowledge Triples [56.939571343797304]
本稿では,トレーニング中に学習した有用な知識を記憶するために,メモリネットワークを利用した新しいメモリ拡張ジェネレータを提案する。
我々は、新しい設定のためのWebNLGからデータセットを導き、我々のモデルの有効性を調べるための広範な実験を行う。
論文 参考訳(メタデータ) (2022-09-26T14:35:57Z) - TegTok: Augmenting Text Generation via Task-specific and Open-world
Knowledge [83.55215993730326]
本稿では,タスク固有およびオープンワールド知識(TegTok)によるTExt生成の統一化を提案する。
本モデルでは,2種類の知識ソースからの知識エントリを高密度検索により選択し,それぞれ入力エンコーディングと出力デコーディングの段階に注入する。
論文 参考訳(メタデータ) (2022-03-16T10:37:59Z) - Knowledge-Grounded Dialogue Generation with a Unified Knowledge
Representation [78.85622982191522]
既存のシステムは、トレーニングデータでカバーされる限られたトピックのために、目に見えないトピックでうまく機能しない。
本稿では,異なる知識源を均質化した言語モデルであるPLUGについて述べる。
完全に教師された設定の下で最先端のメソッドと同等のパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2021-12-15T07:11:02Z) - A Sentiment-Controllable Topic-to-Essay Generator with Topic Knowledge
Graph [44.00244549852883]
トピック知識グラフ強化デコーダを用いた,新しい感性制御型トピック・ツー・エッセイ・ジェネレータを提案する。
まず、各文に対する感情を制御するために、感情情報をジェネレータに注入し、様々なエッセイを生み出す。
知識エンティティを別々に使用する既存のモデルとは異なり、我々のモデルは知識グラフ全体を扱い、より構造化され、連結されたセマンティック情報をグラフにエンコードし、より関連するエッセイを生成する。
論文 参考訳(メタデータ) (2020-10-12T08:06:12Z) - A Survey of Knowledge-Enhanced Text Generation [81.24633231919137]
テキスト生成の目標は、機械を人間の言語で表現できるようにすることである。
入力テキストを出力テキストにマッピングすることを学ぶことで、目的を達成するために、様々なニューラルエンコーダデコーダモデルが提案されている。
この問題に対処するために、研究者は入力テキスト以外の様々な種類の知識を生成モデルに組み込むことを検討してきた。
論文 参考訳(メタデータ) (2020-10-09T06:46:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。