論文の概要: A Survey of Knowledge-Enhanced Text Generation
- arxiv url: http://arxiv.org/abs/2010.04389v4
- Date: Sat, 22 Jan 2022 05:27:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 03:53:43.095241
- Title: A Survey of Knowledge-Enhanced Text Generation
- Title(参考訳): 知識強化テキスト生成に関する調査研究
- Authors: Wenhao Yu, Chenguang Zhu, Zaitang Li, Zhiting Hu, Qingyun Wang, Heng
Ji, Meng Jiang
- Abstract要約: テキスト生成の目標は、機械を人間の言語で表現できるようにすることである。
入力テキストを出力テキストにマッピングすることを学ぶことで、目的を達成するために、様々なニューラルエンコーダデコーダモデルが提案されている。
この問題に対処するために、研究者は入力テキスト以外の様々な種類の知識を生成モデルに組み込むことを検討してきた。
- 参考スコア(独自算出の注目度): 81.24633231919137
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The goal of text generation is to make machines express in human language. It
is one of the most important yet challenging tasks in natural language
processing (NLP). Since 2014, various neural encoder-decoder models pioneered
by Seq2Seq have been proposed to achieve the goal by learning to map input text
to output text. However, the input text alone often provides limited knowledge
to generate the desired output, so the performance of text generation is still
far from satisfaction in many real-world scenarios. To address this issue,
researchers have considered incorporating various forms of knowledge beyond the
input text into the generation models. This research direction is known as
knowledge-enhanced text generation. In this survey, we present a comprehensive
review of the research on knowledge enhanced text generation over the past five
years. The main content includes two parts: (i) general methods and
architectures for integrating knowledge into text generation; (ii) specific
techniques and applications according to different forms of knowledge data.
This survey can have broad audiences, researchers and practitioners, in
academia and industry.
- Abstract(参考訳): テキスト生成の目標は、機械を人間の言語で表現できるようにすることである。
これは自然言語処理(NLP)において最も重要なタスクの1つである。
2014年以降、Seq2Seqによって開発された様々なニューラルエンコーダ・デコーダモデルが提案され、入力テキストを出力するテキストのマップ化を学ぶことで目標を達成することができる。
しかし、入力テキストだけでは、所望の出力を生成するための限られた知識を提供することが多いため、テキスト生成の性能は、多くの実世界のシナリオではまだ満足できない。
この問題に対処するため、研究者は入力テキストを超えて様々な形の知識を生成モデルに組み込むことを検討してきた。
この研究の方向性は知識強化テキスト生成として知られている。
本調査では,過去5年間の知識強化テキスト生成研究を包括的に概観する。
主な内容は2つの部分を含む。
(i)知識をテキスト生成に統合するための一般的な方法及びアーキテクチャ
(ii)知識データの異なる形態による特定技術及び応用
この調査は、学術と産業において幅広い聴衆、研究者、実践者を持つことができる。
関連論文リスト
- Automatic and Human-AI Interactive Text Generation [27.05024520190722]
本チュートリアルは、最先端の自然言語生成研究の概要を提供する。
テキストからテキストへの生成タスクは、セマンティック一貫性とターゲット言語スタイルの観点からより制約される。
論文 参考訳(メタデータ) (2023-10-05T20:26:15Z) - TegTok: Augmenting Text Generation via Task-specific and Open-world
Knowledge [83.55215993730326]
本稿では,タスク固有およびオープンワールド知識(TegTok)によるTExt生成の統一化を提案する。
本モデルでは,2種類の知識ソースからの知識エントリを高密度検索により選択し,それぞれ入力エンコーディングと出力デコーディングの段階に注入する。
論文 参考訳(メタデータ) (2022-03-16T10:37:59Z) - A Survey on Retrieval-Augmented Text Generation [53.04991859796971]
Retrieval-augmented text generationは顕著な利点があり、多くのNLPタスクで最先端のパフォーマンスを実現している。
まず、検索拡張生成の一般的なパラダイムを強調し、異なるタスクに応じて注目すべきアプローチをレビューする。
論文 参考訳(メタデータ) (2022-02-02T16:18:41Z) - A Survey of Pretrained Language Models Based Text Generation [97.64625999380425]
テキスト生成は、入力データから人間の言語で可読で読みやすいテキストを生成することを目的としている。
ディープラーニングは、ニューラルジェネレーションモデル、特に事前学習言語モデル(PLM)のパラダイムにより、この分野を大幅に進歩させた。
PLM上でのテキスト生成は、学術と産業の両方において有望な方向と見なされている。
論文 参考訳(メタデータ) (2022-01-14T01:44:58Z) - Pretrained Language Models for Text Generation: A Survey [46.03096493973206]
本稿では、テキスト生成のための事前学習言語モデル(PLM)のトピックにおいて達成された大きな進歩について概説する。
我々は、既存のPLMを異なる入力データに適応させ、生成したテキストの特別な特性を満たす方法について論じる。
論文 参考訳(メタデータ) (2021-05-21T12:27:44Z) - Positioning yourself in the maze of Neural Text Generation: A
Task-Agnostic Survey [54.34370423151014]
本稿では, ストーリーテリング, 要約, 翻訳など, 世代ごとのタスクインパクトをリレーする手法の構成要素について検討する。
本稿では,学習パラダイム,事前学習,モデリングアプローチ,復号化,各分野における重要な課題について,命令的手法の抽象化を提案する。
論文 参考訳(メタデータ) (2020-10-14T17:54:42Z) - Text Recognition in the Wild: A Survey [33.22076515689926]
本論文は,シーンテキスト認識の分野の全体像を提示する試みである。
この分野に参入する人々に対する包括的なリファレンスを提供しており、将来の研究を刺激するのに役立ちます。
論文 参考訳(メタデータ) (2020-05-07T13:57:04Z) - Towards information-rich, logical text generation with
knowledge-enhanced neural models [15.931791215286879]
テキスト生成システムは、ディープラーニング技術によって多大な進歩を遂げ、私たちの生活に広く応用されてきた。
既存のエンドツーエンドのニューラルモデルは、入力コンテキストを背景知識で理解できないため、非形式的で汎用的なテキストを生成する傾向があるという問題に悩まされる。
本調査では,知識に富んだテキスト生成システムの総合的なレビューを行い,これらの課題の解決に向けた研究の進展を要約し,オープンな課題と研究の方向性を提案する。
論文 参考訳(メタデータ) (2020-03-02T12:41:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。