論文の概要: Innovations in Neural Data-to-text Generation: A Survey
- arxiv url: http://arxiv.org/abs/2207.12571v3
- Date: Tue, 2 Apr 2024 00:33:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 14:31:02.334018
- Title: Innovations in Neural Data-to-text Generation: A Survey
- Title(参考訳): ニューラルデータ・テキスト生成のイノベーション:サーベイ
- Authors: Mandar Sharma, Ajay Gogineni, Naren Ramakrishnan,
- Abstract要約: このサーベイは、アプローチ、ベンチマークデータセット、評価プロトコルの構造化された検証によって、ニューラルDTGパラダイムの総合的なビューを提供する。
我々は,言語的に有能なシステムの設計だけでなく,公平性と説明責任を示すシステムにも焦点をあてる,DTG研究の有望な道のりを強調した。
- 参考スコア(独自算出の注目度): 10.225452376884233
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The neural boom that has sparked natural language processing (NLP) research through the last decade has similarly led to significant innovations in data-to-text generation (DTG). This survey offers a consolidated view into the neural DTG paradigm with a structured examination of the approaches, benchmark datasets, and evaluation protocols. This survey draws boundaries separating DTG from the rest of the natural language generation (NLG) landscape, encompassing an up-to-date synthesis of the literature, and highlighting the stages of technological adoption from within and outside the greater NLG umbrella. With this holistic view, we highlight promising avenues for DTG research that not only focus on the design of linguistically capable systems but also systems that exhibit fairness and accountability.
- Abstract(参考訳): 過去10年間に自然言語処理(NLP)研究を引き起こした神経ブームは、同様に、データ・テキスト生成(DTG)に大きな革新をもたらした。
このサーベイは、アプローチ、ベンチマークデータセット、評価プロトコルの構造化された検証によって、ニューラルDTGパラダイムの総合的なビューを提供する。
この調査は、DTGを他の自然言語生成(NLG)ランドスケープから切り離す境界を引き合いに出し、文献の最新の合成を包含し、より大きなNLG傘の内外からの技術的採用のステージを強調した。
このような総合的な視点から、言語学的に有能なシステムの設計だけでなく、公正性と説明責任を示すシステムにも焦点をあてたDTG研究への有望な道のりを強調した。
関連論文リスト
- A Systematic Review of Data-to-Text NLG [2.4769539696439677]
高品質なテキストを生成する手法を探索し、テキスト生成における幻覚の課題に対処する。
テキスト品質の進歩にもかかわらず、このレビューは低リソース言語における研究の重要性を強調している。
論文 参考訳(メタデータ) (2024-02-13T14:51:45Z) - Natural Language Processing for Dialects of a Language: A Survey [56.93337350526933]
最先端自然言語処理(NLP)モデルは、大規模なトレーニングコーパスでトレーニングされ、評価データセットで最上位のパフォーマンスを報告します。
この調査は、これらのデータセットの重要な属性である言語の方言を掘り下げる。
方言データセットに対するNLPモデルの性能劣化と言語技術のエクイティへのその影響を動機として,我々はデータセットやアプローチの観点から,方言に対するNLPの過去の研究を調査した。
論文 参考訳(メタデータ) (2024-01-11T03:04:38Z) - Recent Advances in Neural Text Generation: A Task-Agnostic Survey [20.932460734129585]
本稿では,ニューラルテキスト生成の最近の進歩を包括的かつタスク依存的に調査する。
これらの進歩は、データ構築、ニューラルネットワーク、トレーニングと推論戦略、評価指標の4つの重要な領域に分類します。
本稿では,ニューラルネットワークの利用と背景知識の導入を含む,ニューラルテキスト生成の進歩に向けた今後の方向性について検討する。
論文 参考訳(メタデータ) (2022-03-06T20:47:49Z) - Survey of Hallucination in Natural Language Generation [69.9926849848132]
近年,シーケンス間深層学習技術の発展により,自然言語生成(NLG)は指数関数的に向上している。
深層学習に基づく生成は意図しないテキストを幻覚させる傾向があるため、システム性能は低下する。
この調査は、NLGにおける幻覚テキストの課題に取り組む研究者の協力活動を促進するのに役立つ。
論文 参考訳(メタデータ) (2022-02-08T03:55:01Z) - A Survey on Retrieval-Augmented Text Generation [53.04991859796971]
Retrieval-augmented text generationは顕著な利点があり、多くのNLPタスクで最先端のパフォーマンスを実現している。
まず、検索拡張生成の一般的なパラダイムを強調し、異なるタスクに応じて注目すべきアプローチをレビューする。
論文 参考訳(メタデータ) (2022-02-02T16:18:41Z) - A Survey of Natural Language Generation [30.134226859027642]
本稿では,過去20年間の自然言語生成(NLG)研究を包括的に概観する。
データ・ツー・テキスト・ジェネレーションとテキスト・ツー・テキスト・テキスト・ジェネレーション・ディープ・ラーニングの手法、およびNLG技術の新たな応用に焦点を当てている。
論文 参考訳(メタデータ) (2021-12-22T09:08:00Z) - Systematic Inequalities in Language Technology Performance across the
World's Languages [94.65681336393425]
本稿では,言語技術のグローバルな有用性を評価するためのフレームワークを紹介する。
本分析では, ユーザ対応技術と言語的NLPタスクの両面において, より深く研究されている。
論文 参考訳(メタデータ) (2021-10-13T14:03:07Z) - Artificial Text Detection via Examining the Topology of Attention Maps [58.46367297712477]
トポロジカルデータ分析(TDA)に基づく3種類の解釈可能なトポロジカル特徴を提案する。
BERTモデルから派生した特徴が3つの共通データセットにおいて、カウントベースとニューラルベースベースラインを最大10%上回っていることを実証的に示す。
特徴の探索解析は表面に対する感度と構文的性質を明らかにしている。
論文 参考訳(メタデータ) (2021-09-10T12:13:45Z) - Pretrained Language Models for Text Generation: A Survey [46.03096493973206]
本稿では、テキスト生成のための事前学習言語モデル(PLM)のトピックにおいて達成された大きな進歩について概説する。
我々は、既存のPLMを異なる入力データに適応させ、生成したテキストの特別な特性を満たす方法について論じる。
論文 参考訳(メタデータ) (2021-05-21T12:27:44Z) - Positioning yourself in the maze of Neural Text Generation: A
Task-Agnostic Survey [54.34370423151014]
本稿では, ストーリーテリング, 要約, 翻訳など, 世代ごとのタスクインパクトをリレーする手法の構成要素について検討する。
本稿では,学習パラダイム,事前学習,モデリングアプローチ,復号化,各分野における重要な課題について,命令的手法の抽象化を提案する。
論文 参考訳(メタデータ) (2020-10-14T17:54:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。