論文の概要: Unsupervised Text Generation by Learning from Search
- arxiv url: http://arxiv.org/abs/2007.08557v1
- Date: Thu, 9 Jul 2020 04:34:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 03:05:28.169552
- Title: Unsupervised Text Generation by Learning from Search
- Title(参考訳): 検索からの学習による教師なしテキスト生成
- Authors: Jingjing Li, Zichao Li, Lili Mou, Xin Jiang, Michael R. Lyu, Irwin
King
- Abstract要約: TGLSは、教師なしテキスト生成のための新しいフレームワークである。
実世界の自然言語生成タスクであるパラフレーズ生成とテキストの形式化におけるTGLSの有効性を示す。
- 参考スコア(独自算出の注目度): 86.51619839836331
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we present TGLS, a novel framework to unsupervised Text
Generation by Learning from Search. We start by applying a strong search
algorithm (in particular, simulated annealing) towards a heuristically defined
objective that (roughly) estimates the quality of sentences. Then, a
conditional generative model learns from the search results, and meanwhile
smooth out the noise of search. The alternation between search and learning can
be repeated for performance bootstrapping. We demonstrate the effectiveness of
TGLS on two real-world natural language generation tasks, paraphrase generation
and text formalization. Our model significantly outperforms unsupervised
baseline methods in both tasks. Especially, it achieves comparable performance
with the state-of-the-art supervised methods in paraphrase generation.
- Abstract(参考訳): 本研究では,検索からの学習による教師なしテキスト生成のための新しいフレームワークTGLSを提案する。
まず,(概して)文の品質を推定するヒューリスティックに定義された目的に対して,強い探索アルゴリズム(特にシミュレートアニーリング)を適用することから始める。
そして、条件付き生成モデルは、検索結果から学習し、一方、探索のノイズを滑らかにする。
検索と学習の交替は、パフォーマンスブートストラップのために繰り返すことができる。
実世界の自然言語生成タスクであるパラフレーズ生成とテキスト形式化におけるTGLSの有効性を示す。
我々のモデルは両タスクにおいて教師なしのベースライン法を著しく上回る。
特に、パラフレーズ生成における最先端の教師付き手法と同等の性能を発揮する。
関連論文リスト
- Reinforcement Learning with Token-level Feedback for Controllable Text Generation [16.117006822479407]
token-Level rewards for controllable text generationを定式化するTOLEという新しい強化学習アルゴリズムを提案する。
実験結果から,本アルゴリズムは単一属性と複数属性の制御タスクにおいて,優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2024-03-18T08:18:37Z) - Retrieval is Accurate Generation [99.24267226311157]
本稿では,支援文書の集合からコンテキスト認識句を選択する新しい手法を提案する。
本モデルでは,検索対象のベースラインの中で,最高の性能と低レイテンシを実現する。
論文 参考訳(メタデータ) (2024-02-27T14:16:19Z) - Search and Learning for Unsupervised Text Generation [27.940118426945872]
本稿では,教師なしテキスト生成における検索と学習のアプローチに関する最近の研究を紹介する。
機械学習モデルは、検索結果からさらに学習し、ノイズを滑らかにし、効率を向上させる。
論文 参考訳(メタデータ) (2023-09-18T05:44:11Z) - Learning to Rank in Generative Retrieval [62.91492903161522]
生成的検索は、検索対象として関連する通路の識別子文字列を生成することを目的としている。
我々はLTRGRと呼ばれる生成検索のための学習 torankフレームワークを提案する。
このフレームワークは、現在の生成的検索システムを強化するために、追加の学習からランクまでのトレーニングフェーズのみを必要とする。
論文 参考訳(メタデータ) (2023-06-27T05:48:14Z) - A Survey on Retrieval-Augmented Text Generation [53.04991859796971]
Retrieval-augmented text generationは顕著な利点があり、多くのNLPタスクで最先端のパフォーマンスを実現している。
まず、検索拡張生成の一般的なパラダイムを強調し、異なるタスクに応じて注目すべきアプローチをレビューする。
論文 参考訳(メタデータ) (2022-02-02T16:18:41Z) - Text Generation with Efficient (Soft) Q-Learning [91.47743595382758]
強化学習(RL)は、任意のタスクメトリクスを報酬としてプラグインすることで、より柔軟なソリューションを提供する。
ソフトQ-ラーニングの観点からテキスト生成のための新しいRL式を導入する。
雑音/負の例から学習し、敵攻撃、即時生成など、幅広いタスクにアプローチを適用する。
論文 参考訳(メタデータ) (2021-06-14T18:48:40Z) - Improving Text Generation with Student-Forcing Optimal Transport [122.11881937642401]
トレーニングモードとテストモードで生成されたシーケンスに最適なトランスポート(OT)を提案する。
テキストシーケンスの構造的および文脈的情報に基づいて、OT学習を改善するための拡張も提案されている。
提案手法の有効性は,機械翻訳,テキスト要約,テキスト生成タスクにおいて検証される。
論文 参考訳(メタデータ) (2020-10-12T19:42:25Z) - ColdGANs: Taming Language GANs with Cautious Sampling Strategies [29.943949944682196]
GAN(Generative Adversarial Networks)は制約を緩和するが、テキストの離散性によって言語生成への応用が妨げられている。
古典的なサンプリングが不安定なトレーニングにどのように影響するかを示す。
我々は,サンプルを分散モードに近づけることで,よりスムーズな学習ダイナミックスを実現するGANフレームワークにおいて,代替的な探索戦略を検討することを提案する。
我々の知る限りでは、提案言語 GAN は MLE と好意的に比較され、3つの生成タスクにおける最先端技術の改善が得られた。
論文 参考訳(メタデータ) (2020-06-08T14:48:14Z) - QURIOUS: Question Generation Pretraining for Text Generation [13.595014409069584]
本稿では,テキスト生成目標に適合する事前学習手法として質問生成を提案する。
本手法で事前訓練したテキスト生成モデルは,入力の本質を理解するのが得意であり,目的タスクに適した言語モデルである。
論文 参考訳(メタデータ) (2020-04-23T08:41:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。