論文の概要: Positioning yourself in the maze of Neural Text Generation: A
Task-Agnostic Survey
- arxiv url: http://arxiv.org/abs/2010.07279v2
- Date: Fri, 26 Mar 2021 00:31:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 13:28:32.434807
- Title: Positioning yourself in the maze of Neural Text Generation: A
Task-Agnostic Survey
- Title(参考訳): ニューラルテキスト生成の迷路に身を置く:タスク非依存調査
- Authors: Khyathi Raghavi Chandu and Alan W Black
- Abstract要約: 本稿では, ストーリーテリング, 要約, 翻訳など, 世代ごとのタスクインパクトをリレーする手法の構成要素について検討する。
本稿では,学習パラダイム,事前学習,モデリングアプローチ,復号化,各分野における重要な課題について,命令的手法の抽象化を提案する。
- 参考スコア(独自算出の注目度): 54.34370423151014
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural text generation metamorphosed into several critical natural language
applications ranging from text completion to free form narrative generation. In
order to progress research in text generation, it is critical to absorb the
existing research works and position ourselves in this massively growing field.
Specifically, this paper surveys the fundamental components of modeling
approaches relaying task agnostic impacts across various generation tasks such
as storytelling, summarization, translation etc., In this context, we present
an abstraction of the imperative techniques with respect to learning paradigms,
pretraining, modeling approaches, decoding and the key challenges outstanding
in the field in each of them. Thereby, we deliver a one-stop destination for
researchers in the field to facilitate a perspective on where to situate their
work and how it impacts other closely related generation tasks.
- Abstract(参考訳): ニューラルテキスト生成は、テキスト補完からフリーフォームナラティブ生成まで、いくつかの重要な自然言語アプリケーションに変形した。
テキスト生成の研究を進めるためには、既存の研究成果を吸収し、この巨大な成長分野に身を置くことが不可欠である。
具体的には,様々な世代のタスク,例えばストーリーテリング,要約,翻訳などにおいて,タスクに依存しない影響を伝達するモデリング手法の基本コンポーネントについて検討し,学習パラダイム,事前学習,モデリングアプローチ,デコード,そしてそれぞれの分野において際立った重要な課題について考察する。
これにより、現場研究者にワンストップの目的地を提供し、仕事の場所や、それが他の密接に関連する世代のタスクにどのように影響するかを展望する。
関連論文リスト
- Recent Trends in Linear Text Segmentation: a Survey [10.740243165055743]
自然言語処理の分野は、最近、Web上のテキスト、ビデオ、オーディオの急増により、多くの関心を集めている。
本稿では,線形テキストセグメンテーションの現在の進歩を概観し,その課題に対する資源とアプローチの観点から技術の現状を説明する。
論文 参考訳(メタデータ) (2024-11-25T17:48:59Z) - Visual Text Meets Low-level Vision: A Comprehensive Survey on Visual
Text Processing [4.057550183467041]
視覚テキスト処理の分野は、基本的な生成モデルの出現によって、研究の急増を経験してきた。
この分野での最近の進歩を包括的かつ多面的に分析する。
論文 参考訳(メタデータ) (2024-02-05T15:13:20Z) - Automatic and Human-AI Interactive Text Generation [27.05024520190722]
本チュートリアルは、最先端の自然言語生成研究の概要を提供する。
テキストからテキストへの生成タスクは、セマンティック一貫性とターゲット言語スタイルの観点からより制約される。
論文 参考訳(メタデータ) (2023-10-05T20:26:15Z) - A survey on text generation using generative adversarial networks [0.0]
本研究は, ジェネレーティブ・アドバイサル・ネットワークを用いた最近の研究とテキスト生成の進展について, 徹底的なレビューを行う。
テキスト生成における敵対的学習の使用は、いわゆる「自然な」言語を生成する代替手段を提供するので、有望である。
論文 参考訳(メタデータ) (2022-12-20T17:54:08Z) - An Inclusive Notion of Text [69.36678873492373]
テキストの概念の明確さは再現可能で一般化可能なNLPにとって不可欠である,と我々は主張する。
言語的および非言語的要素の2層分類を導入し,NLPモデリングに使用することができる。
論文 参考訳(メタデータ) (2022-11-10T14:26:43Z) - A Survey on Retrieval-Augmented Text Generation [53.04991859796971]
Retrieval-augmented text generationは顕著な利点があり、多くのNLPタスクで最先端のパフォーマンスを実現している。
まず、検索拡張生成の一般的なパラダイムを強調し、異なるタスクに応じて注目すべきアプローチをレビューする。
論文 参考訳(メタデータ) (2022-02-02T16:18:41Z) - Pretrained Language Models for Text Generation: A Survey [46.03096493973206]
本稿では、テキスト生成のための事前学習言語モデル(PLM)のトピックにおいて達成された大きな進歩について概説する。
我々は、既存のPLMを異なる入力データに適応させ、生成したテキストの特別な特性を満たす方法について論じる。
論文 参考訳(メタデータ) (2021-05-21T12:27:44Z) - Deep Learning for Text Style Transfer: A Survey [71.8870854396927]
テキストスタイル転送は、生成したテキストの特定の属性を制御することを目的として、自然言語生成において重要なタスクである。
2017年の最初のニューラルテキストスタイル転送作業以降,100以上の代表的な記事を対象とした,ニューラルテキストスタイル転送の研究の体系的な調査を行う。
タスクの定式化、既存のデータセットとサブタスク、評価、並列データと非並列データの存在下での豊富な方法論について論じる。
論文 参考訳(メタデータ) (2020-11-01T04:04:43Z) - Exploring the Limits of Transfer Learning with a Unified Text-to-Text
Transformer [64.22926988297685]
下流タスクで微調整される前に、まずデータリッチタスクでモデルが事前訓練されるトランスファーラーニングは、自然言語処理(NLP)において強力な手法として登場した。
本稿では,すべてのテキストベースの言語問題をテキスト・トゥ・テキスト・フォーマットに変換する統一フレームワークにより,NLPのためのトランスファー学習手法を導入する状況について検討する。
論文 参考訳(メタデータ) (2019-10-23T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。