論文の概要: Towards information-rich, logical text generation with
knowledge-enhanced neural models
- arxiv url: http://arxiv.org/abs/2003.00814v1
- Date: Mon, 2 Mar 2020 12:41:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 05:16:34.767082
- Title: Towards information-rich, logical text generation with
knowledge-enhanced neural models
- Title(参考訳): 知識強化ニューラルモデルを用いた情報豊富な論理テキスト生成に向けて
- Authors: Hao Wang, Bin Guo, Wei Wu, Zhiwen Yu
- Abstract要約: テキスト生成システムは、ディープラーニング技術によって多大な進歩を遂げ、私たちの生活に広く応用されてきた。
既存のエンドツーエンドのニューラルモデルは、入力コンテキストを背景知識で理解できないため、非形式的で汎用的なテキストを生成する傾向があるという問題に悩まされる。
本調査では,知識に富んだテキスト生成システムの総合的なレビューを行い,これらの課題の解決に向けた研究の進展を要約し,オープンな課題と研究の方向性を提案する。
- 参考スコア(独自算出の注目度): 15.931791215286879
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text generation system has made massive promising progress contributed by
deep learning techniques and has been widely applied in our life. However,
existing end-to-end neural models suffer from the problem of tending to
generate uninformative and generic text because they cannot ground input
context with background knowledge. In order to solve this problem, many
researchers begin to consider combining external knowledge in text generation
systems, namely knowledge-enhanced text generation. The challenges of knowledge
enhanced text generation including how to select the appropriate knowledge from
large-scale knowledge bases, how to read and understand extracted knowledge,
and how to integrate knowledge into generation process. This survey gives a
comprehensive review of knowledge-enhanced text generation systems, summarizes
research progress to solving these challenges and proposes some open issues and
research directions.
- Abstract(参考訳): テキスト生成システムは、ディープラーニング技術によって多大な進歩を遂げ、私たちの生活に広く応用されてきた。
しかし、既存のエンド・ツー・エンドのニューラルモデルは、背景知識で入力コンテキストを接地できないため、非形式的で汎用的なテキストを生成する傾向に苦しむ。
この問題を解決するために、多くの研究者は、外部知識をテキスト生成システム、すなわち知識エンハンステキスト生成に組み合わせることを検討し始めた。
知識の課題は、大規模知識ベースから適切な知識を選択する方法、抽出された知識の読み書き方法、知識を生成プロセスに統合する方法など、テキスト生成を強化した。
本調査では,知識向上型テキスト生成システムの総合的なレビューを行い,これらの課題の解決に向けた研究の進展を要約し,オープンな課題と研究方向性を提案する。
関連論文リスト
- Well Begun is Half Done: Generator-agnostic Knowledge Pre-Selection for
Knowledge-Grounded Dialogue [24.395322923436026]
本研究は,事前知識を正確に選択できるだけでなく,学習,調整,解釈の負担を軽減できるという利点がある第3のアンダーサーサーサーサーサーサーサーサーサー研究に焦点をあてる。
本稿では,ジェネレータに依存しない知識選択手法であるGATEを提案する。
論文 参考訳(メタデータ) (2023-10-11T17:00:29Z) - Beyond Factuality: A Comprehensive Evaluation of Large Language Models
as Knowledge Generators [78.63553017938911]
大規模言語モデル(LLM)は、下流の知識集約タスクのための情報検索技術より優れている。
しかし、コミュニティの懸念は、この無検閲の知識を使用することの事実と潜在的意味について多岐にわたる。
本研究では,6つの重要な視点から生成した知識を評価するために設計されたCONNERを紹介する。
論文 参考訳(メタデータ) (2023-10-11T08:22:37Z) - Open-world Story Generation with Structured Knowledge Enhancement: A
Comprehensive Survey [38.56791838401675]
本稿では,既存の手法が構造的知識をストーリー生成にどのように統合するかについて,体系的な分類法を提案する。
知識に富んだストーリー生成の課題について多次元的な洞察を与える。
論文 参考訳(メタデータ) (2022-12-09T02:19:07Z) - Multimodal Dialog Systems with Dual Knowledge-enhanced Generative Pretrained Language Model [63.461030694700014]
マルチモーダルなタスク指向対話システム(DKMD)のための新しい二元的知識強化型事前学習言語モデルを提案する。
提案したDKMDは,2つの知識選択,2つの知識強調型文脈学習,知識強調型応答生成という3つの重要なコンポーネントから構成される。
パブリックデータセットの実験は、最先端の競合相手よりも提案されたDKMDの優位性を検証する。
論文 参考訳(メタデータ) (2022-07-16T13:02:54Z) - TegTok: Augmenting Text Generation via Task-specific and Open-world
Knowledge [83.55215993730326]
本稿では,タスク固有およびオープンワールド知識(TegTok)によるTExt生成の統一化を提案する。
本モデルでは,2種類の知識ソースからの知識エントリを高密度検索により選択し,それぞれ入力エンコーディングと出力デコーディングの段階に注入する。
論文 参考訳(メタデータ) (2022-03-16T10:37:59Z) - Knowledge-Grounded Dialogue Generation with a Unified Knowledge
Representation [78.85622982191522]
既存のシステムは、トレーニングデータでカバーされる限られたトピックのために、目に見えないトピックでうまく機能しない。
本稿では,異なる知識源を均質化した言語モデルであるPLUGについて述べる。
完全に教師された設定の下で最先端のメソッドと同等のパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2021-12-15T07:11:02Z) - Prediction, Selection, and Generation: Exploration of Knowledge-Driven
Conversation System [24.537862151735006]
オープンドメインの会話システムでは、背景知識を活用することは重要だが難しい。
知識ベースと事前学習モデルを組み合わせて,知識駆動会話システムを提案する。
知識駆動対話の生成に影響を与える可能性のあるパフォーマンス要因について検討する。
論文 参考訳(メタデータ) (2021-04-23T07:59:55Z) - Contextualized Knowledge-aware Attentive Neural Network: Enhancing
Answer Selection with Knowledge [77.77684299758494]
ナレッジグラフ(KG)による外部知識による回答選択モデル向上のアプローチを幅広く検討しています。
まず、KGの外部知識とテキスト情報との密接な相互作用を考慮し、QA文表現を学習するコンテキスト知識相互作用学習フレームワークであるナレッジアウェアニューラルネットワーク(KNN)を紹介します。
KG情報の多様性と複雑性に対処するために, カスタマイズされたグラフ畳み込みネットワーク (GCN) を介して構造情報を用いた知識表現学習を改善し, コンテキストベースおよび知識ベースの文表現を総合的に学習する コンテキスト型知識認識型アテンシブニューラルネットワーク (CKANN) を提案する。
論文 参考訳(メタデータ) (2021-04-12T05:52:20Z) - A Survey of Knowledge-Enhanced Text Generation [81.24633231919137]
テキスト生成の目標は、機械を人間の言語で表現できるようにすることである。
入力テキストを出力テキストにマッピングすることを学ぶことで、目的を達成するために、様々なニューラルエンコーダデコーダモデルが提案されている。
この問題に対処するために、研究者は入力テキスト以外の様々な種類の知識を生成モデルに組み込むことを検討してきた。
論文 参考訳(メタデータ) (2020-10-09T06:46:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。