論文の概要: A survey on text generation using generative adversarial networks
- arxiv url: http://arxiv.org/abs/2212.11119v1
- Date: Tue, 20 Dec 2022 17:54:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 13:36:42.267929
- Title: A survey on text generation using generative adversarial networks
- Title(参考訳): 生成逆ネットワークを用いたテキスト生成に関する研究
- Authors: Gustavo Henrique de Rosa, Jo\~ao Paulo Papa
- Abstract要約: 本研究は, ジェネレーティブ・アドバイサル・ネットワークを用いた最近の研究とテキスト生成の進展について, 徹底的なレビューを行う。
テキスト生成における敵対的学習の使用は、いわゆる「自然な」言語を生成する代替手段を提供するので、有望である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work presents a thorough review concerning recent studies and text
generation advancements using Generative Adversarial Networks. The usage of
adversarial learning for text generation is promising as it provides
alternatives to generate the so-called "natural" language. Nevertheless,
adversarial text generation is not a simple task as its foremost architecture,
the Generative Adversarial Networks, were designed to cope with continuous
information (image) instead of discrete data (text). Thus, most works are based
on three possible options, i.e., Gumbel-Softmax differentiation, Reinforcement
Learning, and modified training objectives. All alternatives are reviewed in
this survey as they present the most recent approaches for generating text
using adversarial-based techniques. The selected works were taken from renowned
databases, such as Science Direct, IEEEXplore, Springer, Association for
Computing Machinery, and arXiv, whereas each selected work has been critically
analyzed and assessed to present its objective, methodology, and experimental
results.
- Abstract(参考訳): 本稿では, 生成型adversarial networkを用いた最近の研究とテキスト生成の進展について概観する。
テキスト生成における敵対的学習の利用は、いわゆる「自然言語」を生成する代替手段を提供するものとして有望である。
しかしながら、その最上位アーキテクチャであるジェネレーティブ・アダクショナル・ネットワーク(Generative Adversarial Networks)は、離散データ(テキスト)ではなく、連続的な情報(画像)を扱うように設計されている。
したがって、ほとんどの研究はGumbel-Softmax差分、強化学習、修正された訓練目標の3つの選択肢に基づいている。
この調査では、敵対的手法を用いてテキストを生成するための最新のアプローチを提示するため、すべての代替案がレビューされている。
選択された作品は、Science Direct、IEEEXplore、Springer、Association for Computing Machinery、arXivなどの有名なデータベースから抽出され、それぞれが批判的に分析され、その目的、方法論、実験結果を示すために評価されている。
関連論文リスト
- DeTeCtive: Detecting AI-generated Text via Multi-Level Contrastive Learning [24.99797253885887]
このタスクを達成するための鍵は、異なる著者のスタイルを区別することにある、と我々は主張する。
DeTeCtiveは,マルチタスクの補助的,マルチレベルのコントラスト学習フレームワークである。
我々の手法はテキストエンコーダと互換性がある。
論文 参考訳(メタデータ) (2024-10-28T12:34:49Z) - CiteBench: A benchmark for Scientific Citation Text Generation [69.37571393032026]
CiteBenchは引用テキスト生成のベンチマークである。
CiteBenchのコードはhttps://github.com/UKPLab/citebench.comで公開しています。
論文 参考訳(メタデータ) (2022-12-19T16:10:56Z) - On Decoding Strategies for Neural Text Generators [73.48162198041884]
言語生成タスクと復号化戦略の相互作用について検討する。
生成したテキストの属性の変化をデコード戦略とタスクの両方の関数として測定する。
以上の結果から,これまで観察された結果と意外な結果の両方が明らかとなった。
論文 参考訳(メタデータ) (2022-03-29T16:25:30Z) - A Survey on Retrieval-Augmented Text Generation [53.04991859796971]
Retrieval-augmented text generationは顕著な利点があり、多くのNLPタスクで最先端のパフォーマンスを実現している。
まず、検索拡張生成の一般的なパラダイムを強調し、異なるタスクに応じて注目すべきアプローチをレビューする。
論文 参考訳(メタデータ) (2022-02-02T16:18:41Z) - Positioning yourself in the maze of Neural Text Generation: A
Task-Agnostic Survey [54.34370423151014]
本稿では, ストーリーテリング, 要約, 翻訳など, 世代ごとのタスクインパクトをリレーする手法の構成要素について検討する。
本稿では,学習パラダイム,事前学習,モデリングアプローチ,復号化,各分野における重要な課題について,命令的手法の抽象化を提案する。
論文 参考訳(メタデータ) (2020-10-14T17:54:42Z) - A Survey of Knowledge-Enhanced Text Generation [81.24633231919137]
テキスト生成の目標は、機械を人間の言語で表現できるようにすることである。
入力テキストを出力テキストにマッピングすることを学ぶことで、目的を達成するために、様々なニューラルエンコーダデコーダモデルが提案されている。
この問題に対処するために、研究者は入力テキスト以外の様々な種類の知識を生成モデルに組み込むことを検討してきた。
論文 参考訳(メタデータ) (2020-10-09T06:46:46Z) - Unsupervised Text Generation by Learning from Search [86.51619839836331]
TGLSは、教師なしテキスト生成のための新しいフレームワークである。
実世界の自然言語生成タスクであるパラフレーズ生成とテキストの形式化におけるTGLSの有効性を示す。
論文 参考訳(メタデータ) (2020-07-09T04:34:48Z) - Efficient text generation of user-defined topic using generative
adversarial networks [0.32228025627337864]
本稿では,この問題を解決するために,2レベル判別器を用いたユーザ定義型GAN(UD-GAN)を提案する。
提案手法は,他の方法よりも少ない時間でテキストを生成することができる。
論文 参考訳(メタデータ) (2020-06-22T04:49:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。