論文の概要: A Survey of Natural Language Generation
- arxiv url: http://arxiv.org/abs/2112.11739v1
- Date: Wed, 22 Dec 2021 09:08:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-23 14:25:51.003473
- Title: A Survey of Natural Language Generation
- Title(参考訳): 自然言語生成に関する調査
- Authors: Chenhe Dong, Yinghui Li, Haifan Gong, Miaoxin Chen, Junxin Li, Ying
Shen, Min Yang
- Abstract要約: 本稿では,過去20年間の自然言語生成(NLG)研究を包括的に概観する。
データ・ツー・テキスト・ジェネレーションとテキスト・ツー・テキスト・テキスト・ジェネレーション・ディープ・ラーニングの手法、およびNLG技術の新たな応用に焦点を当てている。
- 参考スコア(独自算出の注目度): 30.134226859027642
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper offers a comprehensive review of the research on Natural Language
Generation (NLG) over the past two decades, especially in relation to
data-to-text generation and text-to-text generation deep learning methods, as
well as new applications of NLG technology. This survey aims to (a) give the
latest synthesis of deep learning research on the NLG core tasks, as well as
the architectures adopted in the field; (b) detail meticulously and
comprehensively various NLG tasks and datasets, and draw attention to the
challenges in NLG evaluation, focusing on different evaluation methods and
their relationships; (c) highlight some future emphasis and relatively recent
research issues that arise due to the increasing synergy between NLG and other
artificial intelligence areas, such as computer vision, text and computational
creativity.
- Abstract(参考訳): 本稿では,過去20年間の自然言語生成(nlg)研究について,特にデータからテキストへの生成とテキストからテキストへのディープラーニング手法,およびnlg技術の新たな応用について概観する。
この調査は
(a)nlgコアタスクに関するディープラーニング研究の最新の合成と、この分野で採用されているアーキテクチャについて述べる。
b) 細部・包括的に異なるNLGタスク及びデータセットを詳述し、異なる評価方法とその関連性に着目して、NLG評価の課題に注意を向ける。
c) nlgとコンピュータビジョン、テキスト、計算創造性といった他の人工知能分野との相乗効果の増加によって生じる、将来的な強調と比較的最近の研究課題を強調する。
関連論文リスト
- Natural Language Generation for Visualizations: State of the Art, Challenges and Future Directions [7.064953237013352]
可視化のためのテキスト生成に焦点を当てた研究に焦点をあてる。
提案手法のNLG問題と設計空間を特徴付けるために、5つのWh-questionsを示す。
この5つのWh-questionsに基づく調査論文のソリューションを分類する。
論文 参考訳(メタデータ) (2024-09-29T15:53:18Z) - Leveraging Large Language Models for NLG Evaluation: Advances and Challenges [57.88520765782177]
大規模言語モデル(LLM)は、コヒーレンス、クリエイティビティ、コンテキスト関連など、生成されたコンテンツ品質を評価するための新たな道を開いた。
既存のLCMに基づく評価指標を整理し、これらの手法を理解し比較するための構造化された枠組みを提供する。
本稿では, 偏見, 堅牢性, ドメイン固有性, 統一評価などの未解決課題を議論することによって, 研究者に洞察を提供し, より公平で高度なNLG評価手法を提唱することを目的とする。
論文 参考訳(メタデータ) (2024-01-13T15:59:09Z) - A Comprehensive Survey of Natural Language Generation Advances from the
Perspective of Digital Deception [1.557442325082254]
自然言語生成(NLG)の分野について概観する。
NLGを構成する中心概念の高レベル分類について概説する。
我々は、既存のテキスト生成システムでしばしば現れるバイアスのリスクを含む、NLGの幅広い課題について論じる。
論文 参考訳(メタデータ) (2022-08-11T11:27:38Z) - Innovations in Neural Data-to-text Generation: A Survey [10.225452376884233]
このサーベイは、アプローチ、ベンチマークデータセット、評価プロトコルの構造化された検証によって、ニューラルDTGパラダイムの総合的なビューを提供する。
我々は,言語的に有能なシステムの設計だけでなく,公平性と説明責任を示すシステムにも焦点をあてる,DTG研究の有望な道のりを強調した。
論文 参考訳(メタデータ) (2022-07-25T23:21:48Z) - Faithfulness in Natural Language Generation: A Systematic Survey of
Analysis, Evaluation and Optimization Methods [48.47413103662829]
自然言語生成(NLG)は,事前学習型言語モデルなどの深層学習技術の発展により,近年大きく進歩している。
しかし、生成したテキストが通常不信または非実情報を含むという忠実性問題は、最大の課題となっている。
論文 参考訳(メタデータ) (2022-03-10T08:28:32Z) - Recent Advances in Neural Text Generation: A Task-Agnostic Survey [20.932460734129585]
本稿では,ニューラルテキスト生成の最近の進歩を包括的かつタスク依存的に調査する。
これらの進歩は、データ構築、ニューラルネットワーク、トレーニングと推論戦略、評価指標の4つの重要な領域に分類します。
本稿では,ニューラルネットワークの利用と背景知識の導入を含む,ニューラルテキスト生成の進歩に向けた今後の方向性について検討する。
論文 参考訳(メタデータ) (2022-03-06T20:47:49Z) - A Survey on Retrieval-Augmented Text Generation [53.04991859796971]
Retrieval-augmented text generationは顕著な利点があり、多くのNLPタスクで最先端のパフォーマンスを実現している。
まず、検索拡張生成の一般的なパラダイムを強調し、異なるタスクに応じて注目すべきアプローチをレビューする。
論文 参考訳(メタデータ) (2022-02-02T16:18:41Z) - Positioning yourself in the maze of Neural Text Generation: A
Task-Agnostic Survey [54.34370423151014]
本稿では, ストーリーテリング, 要約, 翻訳など, 世代ごとのタスクインパクトをリレーする手法の構成要素について検討する。
本稿では,学習パラダイム,事前学習,モデリングアプローチ,復号化,各分野における重要な課題について,命令的手法の抽象化を提案する。
論文 参考訳(メタデータ) (2020-10-14T17:54:42Z) - A Survey of Knowledge-Enhanced Text Generation [81.24633231919137]
テキスト生成の目標は、機械を人間の言語で表現できるようにすることである。
入力テキストを出力テキストにマッピングすることを学ぶことで、目的を達成するために、様々なニューラルエンコーダデコーダモデルが提案されている。
この問題に対処するために、研究者は入力テキスト以外の様々な種類の知識を生成モデルに組み込むことを検討してきた。
論文 参考訳(メタデータ) (2020-10-09T06:46:46Z) - Evaluation of Text Generation: A Survey [107.62760642328455]
本稿は,ここ数年で開発された自然言語生成システムの評価手法について調査する。
我々は,NLG評価手法を,(1)人間中心評価指標,(2)訓練を必要としない自動評価指標,(3)機械学習指標の3つのカテゴリに分類した。
論文 参考訳(メタデータ) (2020-06-26T04:52:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。