論文の概要: Recent Advances in Neural Text Generation: A Task-Agnostic Survey
- arxiv url: http://arxiv.org/abs/2203.03047v3
- Date: Mon, 12 Jun 2023 09:48:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 03:07:23.795782
- Title: Recent Advances in Neural Text Generation: A Task-Agnostic Survey
- Title(参考訳): ニューラルテキスト生成の最近の進歩:タスク非依存調査
- Authors: Chen Tang, Frank Guerin and Chenghua Lin
- Abstract要約: 本稿では,ニューラルテキスト生成の最近の進歩を包括的かつタスク依存的に調査する。
これらの進歩は、データ構築、ニューラルネットワーク、トレーニングと推論戦略、評価指標の4つの重要な領域に分類します。
本稿では,ニューラルネットワークの利用と背景知識の導入を含む,ニューラルテキスト生成の進歩に向けた今後の方向性について検討する。
- 参考スコア(独自算出の注目度): 20.932460734129585
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, considerable research has been dedicated to the application
of neural models in the field of natural language generation (NLG). The primary
objective is to generate text that is both linguistically natural and
human-like, while also exerting control over the generation process. This paper
offers a comprehensive and task-agnostic survey of the recent advancements in
neural text generation. These advancements have been facilitated through a
multitude of developments, which we categorize into four key areas: data
construction, neural frameworks, training and inference strategies, and
evaluation metrics. By examining these different aspects, we aim to provide a
holistic overview of the progress made in the field. Furthermore, we explore
the future directions for the advancement of neural text generation, which
encompass the utilization of neural pipelines and the incorporation of
background knowledge. These avenues present promising opportunities to further
enhance the capabilities of NLG systems. Overall, this survey serves to
consolidate the current state of the art in neural text generation and
highlights potential avenues for future research and development in this
dynamic field.
- Abstract(参考訳): 近年,自然言語生成(nlg)の分野でのニューラルモデルの応用に関する研究が盛んに行われている。
主な目的は、言語的に自然かつ人間的なテキストを生成すると同時に、生成プロセスの制御を行うことである。
本稿では,ニューラルテキスト生成の最近の進歩を包括的かつタスク依存的に調査する。
これらの進歩は、データ構築、ニューラルフレームワーク、トレーニングと推論戦略、評価指標の4つの重要な領域に分類する、数多くの開発を通じて促進されてきた。
これらの異なる側面を調べた結果、この分野における進歩の全体像を概観することを目指している。
さらに,ニューラル・パイプラインの活用と背景知識の導入を含む,ニューラル・テキスト・ジェネレーションの発展に向けた今後の方向性について検討する。
これらの経路は、NLGシステムの能力をさらに強化する有望な機会を提供する。
全体として、この調査は、ニューラルテキスト生成における技術の現状の統合に役立ち、このダイナミックな分野における将来の研究と開発への道のりを強調している。
関連論文リスト
- A Survey on Neural Question Generation: Methods, Applications, and Prospects [56.97451350691765]
調査は、NQGの背景の概要から始まり、タスクの問題を定式化している。
その後、NQGアプローチを構造化NQG、非構造化NQG、ハイブリッドNQGの3つの主要なカテゴリに分類する。
この調査は、NQGの軌跡を前方視し、創発的な研究動向と今後の発展の道筋を見極めている。
論文 参考訳(メタデータ) (2024-02-28T11:57:12Z) - Towards Data-and Knowledge-Driven Artificial Intelligence: A Survey on Neuro-Symbolic Computing [73.0977635031713]
ニューラルシンボリック・コンピューティング(NeSy)は、人工知能(AI)の活発な研究領域である。
NeSyは、ニューラルネットワークにおける記号表現の推論と解釈可能性の利点と堅牢な学習の整合性を示す。
論文 参考訳(メタデータ) (2022-10-28T04:38:10Z) - Innovations in Neural Data-to-text Generation: A Survey [10.225452376884233]
このサーベイは、アプローチ、ベンチマークデータセット、評価プロトコルの構造化された検証によって、ニューラルDTGパラダイムの総合的なビューを提供する。
我々は,言語的に有能なシステムの設計だけでなく,公平性と説明責任を示すシステムにも焦点をあてる,DTG研究の有望な道のりを強調した。
論文 参考訳(メタデータ) (2022-07-25T23:21:48Z) - Survey of Hallucination in Natural Language Generation [69.9926849848132]
近年,シーケンス間深層学習技術の発展により,自然言語生成(NLG)は指数関数的に向上している。
深層学習に基づく生成は意図しないテキストを幻覚させる傾向があるため、システム性能は低下する。
この調査は、NLGにおける幻覚テキストの課題に取り組む研究者の協力活動を促進するのに役立つ。
論文 参考訳(メタデータ) (2022-02-08T03:55:01Z) - A Survey of Natural Language Generation [30.134226859027642]
本稿では,過去20年間の自然言語生成(NLG)研究を包括的に概観する。
データ・ツー・テキスト・ジェネレーションとテキスト・ツー・テキスト・テキスト・ジェネレーション・ディープ・ラーニングの手法、およびNLG技術の新たな応用に焦点を当てている。
論文 参考訳(メタデータ) (2021-12-22T09:08:00Z) - Deep Learning for Text Style Transfer: A Survey [71.8870854396927]
テキストスタイル転送は、生成したテキストの特定の属性を制御することを目的として、自然言語生成において重要なタスクである。
2017年の最初のニューラルテキストスタイル転送作業以降,100以上の代表的な記事を対象とした,ニューラルテキストスタイル転送の研究の体系的な調査を行う。
タスクの定式化、既存のデータセットとサブタスク、評価、並列データと非並列データの存在下での豊富な方法論について論じる。
論文 参考訳(メタデータ) (2020-11-01T04:04:43Z) - Positioning yourself in the maze of Neural Text Generation: A
Task-Agnostic Survey [54.34370423151014]
本稿では, ストーリーテリング, 要約, 翻訳など, 世代ごとのタスクインパクトをリレーする手法の構成要素について検討する。
本稿では,学習パラダイム,事前学習,モデリングアプローチ,復号化,各分野における重要な課題について,命令的手法の抽象化を提案する。
論文 参考訳(メタデータ) (2020-10-14T17:54:42Z) - A Survey of Knowledge-Enhanced Text Generation [81.24633231919137]
テキスト生成の目標は、機械を人間の言語で表現できるようにすることである。
入力テキストを出力テキストにマッピングすることを学ぶことで、目的を達成するために、様々なニューラルエンコーダデコーダモデルが提案されている。
この問題に対処するために、研究者は入力テキスト以外の様々な種類の知識を生成モデルに組み込むことを検討してきた。
論文 参考訳(メタデータ) (2020-10-09T06:46:46Z) - Neural Language Generation: Formulation, Methods, and Evaluation [13.62873478165553]
ニューラルネットワークに基づく生成モデリングの最近の進歩は、人間とシームレスに会話できるコンピュータシステムの実現への期待を再燃させた。
大規模データセットでトレーニングされた高容量ディープラーニングモデルは、明示的な監視信号の欠如にもかかわらず、データのパターンを学習する非並列的な能力を示している。
これらの生成モデルが生成するテキストの品質を評価する標準的な方法は存在しないため、フィールドの進行に深刻なボトルネックが生じる。
論文 参考訳(メタデータ) (2020-07-31T00:08:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。