論文の概要: Implicit Unlikelihood Training: Improving Neural Text Generation with
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2101.04229v1
- Date: Mon, 11 Jan 2021 23:10:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-04 14:44:33.147163
- Title: Implicit Unlikelihood Training: Improving Neural Text Generation with
Reinforcement Learning
- Title(参考訳): インプシット差分学習:強化学習によるニューラルテキスト生成の改善
- Authors: Evgeny Lagutin and Daniil Gavrilov and Pavel Kalaidin
- Abstract要約: より優れた生成を最適化する強化学習を用いて、言語モデルを微調整する。
本手法は,生成したテキストの繰り返しを最小化することに適用し,不一致訓練と組み合わせることで,言語モデルの品質に影響を与えずに繰り返しを少なくできることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Likelihood training and maximization-based decoding result in dull and
repetitive generated texts even when using powerful language models (Holtzman
et al., 2019). Adding a loss function for regularization was shown to improve
text generation output by helping avoid unwanted properties, such as
contradiction or repetition (Li at al., 2020). In this work, we propose
fine-tuning a language model by using policy gradient reinforcement learning,
directly optimizing for better generation. We apply this approach to minimizing
repetition in generated text, and show that, when combined with unlikelihood
training (Welleck et al., 2020), our method further reduces repetition without
impacting the language model quality. We also evaluate other methods for
improving generation at training and decoding time, and compare them using
various metrics aimed at control for better text generation output.
- Abstract(参考訳): 擬似訓練と最大化に基づく復号化は、強力な言語モデル(Holtzman et al., 2019)を使用しても、退屈で反復的なテキストを生成する。
正規化のための損失関数の追加は、矛盾や繰り返しなどの不要な特性を回避することでテキスト生成の出力を改善する(Li at al., 2020)。
本研究では、ポリシー勾配強化学習を用いて言語モデルを微調整し、より優れた生成に向けて直接最適化する。
本稿では,生成テキストにおける繰り返しの最小化に本手法を適用し,不規則学習(Welleck et al., 2020)と組み合わせることで,言語モデルの品質に影響を与えずに繰り返しを減らすことができることを示す。
また、学習時間と復号時の生成を改善する他の方法の評価を行い、テキスト生成出力を改善するための様々な指標を用いて比較する。
関連論文リスト
- Enhancing Text Generation in Joint NLG/NLU Learning Through Curriculum Learning, Semi-Supervised Training, and Advanced Optimization Techniques [0.0]
本研究では,NLG(Natural Language Generation)とNLU(Natural Language Understanding)の併用によってテキスト生成を改善する手法を開発した。
データは、クリーニング、トークン化、ストーミング、ストップワード削除など、注釈付きデータセットの収集と前処理によって作成される。
トランスフォーマーベースのエンコーダとデコーダ、長距離依存関係のキャプチャ、ソースターゲットシーケンスモデリングの改善。
政策勾配手法による強化学習、半教師付きトレーニング、注意機構の改善、および異なる近似を用いて、モデルを微調整し、複雑な言語タスクを効果的に処理する。
論文 参考訳(メタデータ) (2024-10-17T12:43:49Z) - Retrieval is Accurate Generation [99.24267226311157]
本稿では,支援文書の集合からコンテキスト認識句を選択する新しい手法を提案する。
本モデルでは,検索対象のベースラインの中で,最高の性能と低レイテンシを実現する。
論文 参考訳(メタデータ) (2024-02-27T14:16:19Z) - Unlocking Anticipatory Text Generation: A Constrained Approach for Large Language Models Decoding [75.06872859716049]
大規模言語モデル(LLM)は、テキスト生成の強力な能力を示している。
毒性や幻覚などの望ましくない行動が現れることがある。
将来制約付き生成問題としてテキスト生成の形式化を提案する。
論文 参考訳(メタデータ) (2023-12-11T06:35:33Z) - Click: Controllable Text Generation with Sequence Likelihood Contrastive
Learning [69.35360098882606]
制御可能なテキスト生成のためのClickを導入し、モデルアーキテクチャを変更する必要はない。
シークエンス確率は対照的な損失を伴い、負のサンプルの生成確率を根本的に低下させる。
また、モデル世代から対照的なサンプルを構築するための、新しいランキングベースの戦略も採用している。
論文 参考訳(メタデータ) (2023-06-06T01:56:44Z) - Language Model Evaluation in Open-ended Text Generation [0.76146285961466]
本研究では,機械生成テキストの品質,多様性,一貫性を評価するために提案されている評価指標について検討する。
そこで我々は,オープン・エンド・ジェネレーション・タスクにおいて,言語モデルを評価するための実用的なパイプラインを提案する。
論文 参考訳(メタデータ) (2021-08-08T06:16:02Z) - Text Generation with Efficient (Soft) Q-Learning [91.47743595382758]
強化学習(RL)は、任意のタスクメトリクスを報酬としてプラグインすることで、より柔軟なソリューションを提供する。
ソフトQ-ラーニングの観点からテキスト生成のための新しいRL式を導入する。
雑音/負の例から学習し、敵攻撃、即時生成など、幅広いタスクにアプローチを適用する。
論文 参考訳(メタデータ) (2021-06-14T18:48:40Z) - Data Augmentation in Natural Language Processing: A Novel Text
Generation Approach for Long and Short Text Classifiers [8.19984844136462]
本稿では,長文と短文の分類器の性能向上に適したテキスト生成手法を提案し,評価する。
シミュレーションされた低データレギュレーションでは、最大15.53%の加算精度ゲインが達成される。
さまざまな種類のデータセットに対するアプローチを成功に導くための意味とパターンについて議論します。
論文 参考訳(メタデータ) (2021-03-26T13:16:07Z) - Improving Text Generation with Student-Forcing Optimal Transport [122.11881937642401]
トレーニングモードとテストモードで生成されたシーケンスに最適なトランスポート(OT)を提案する。
テキストシーケンスの構造的および文脈的情報に基づいて、OT学習を改善するための拡張も提案されている。
提案手法の有効性は,機械翻訳,テキスト要約,テキスト生成タスクにおいて検証される。
論文 参考訳(メタデータ) (2020-10-12T19:42:25Z) - Improving Adversarial Text Generation by Modeling the Distant Future [155.83051741029732]
テキスト計画手法を考察し、上記の問題を緩和するためのモデルに基づく模倣学習手法を提案する。
本稿では,より長い地平線上の生成過程に焦点をあてる新しいガイドネットワークを提案する。
論文 参考訳(メタデータ) (2020-05-04T05:45:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。