論文の概要: Progressive Generation of Long Text with Pretrained Language Models
- arxiv url: http://arxiv.org/abs/2006.15720v2
- Date: Wed, 14 Apr 2021 17:23:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 02:07:55.585014
- Title: Progressive Generation of Long Text with Pretrained Language Models
- Title(参考訳): 事前学習言語モデルを用いた長文のプログレッシブ生成
- Authors: Bowen Tan, Zichao Yang, Maruan AI-Shedivat, Eric P. Xing, Zhiting Hu
- Abstract要約: GPT-2のような大量のテキストコーパスで事前訓練された大規模言語モデル(LM)は、強力なオープンドメインテキストジェネレータである。
このようなモデルが、特に小さなコーパス上のターゲットドメインに微調整された場合、コヒーレントな長いテキストパスを生成することは依然として困難である。
本稿では,低解像度から高解像度の画像に触発されて,テキストを段階的に生成する簡易かつ効果的な方法を提案する。
- 参考スコア(独自算出の注目度): 83.62523163717448
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large-scale language models (LMs) pretrained on massive corpora of text, such
as GPT-2, are powerful open-domain text generators. However, as our systematic
examination reveals, it is still challenging for such models to generate
coherent long passages of text (e.g., 1000 tokens), especially when the models
are fine-tuned to the target domain on a small corpus. Previous
planning-then-generation methods also fall short of producing such long text in
various domains. To overcome the limitations, we propose a simple but effective
method of generating text in a progressive manner, inspired by generating
images from low to high resolution. Our method first produces domain-specific
content keywords and then progressively refines them into complete passages in
multiple stages. The simple design allows our approach to take advantage of
pretrained LMs at each stage and effectively adapt to any target domain given
only a small set of examples. We conduct a comprehensive empirical study with a
broad set of evaluation metrics, and show that our approach significantly
improves upon the fine-tuned large LMs and various planning-then-generation
methods in terms of quality and sample efficiency. Human evaluation also
validates that our model generations are more coherent.
- Abstract(参考訳): GPT-2のような大量のテキストコーパスで事前訓練された大規模言語モデル(LM)は、強力なオープンドメインテキストジェネレータである。
しかし、体系的な検証が示すように、特にモデルが小さなコーパス上の対象領域に微調整されている場合、このようなモデルがテキストのコヒーレントな長い節(例えば1000トークン)を生成することは依然として困難である。
それまでの計画的手法も、様々なドメインでこのような長いテキストを作成できなかった。
制限を克服するために,低解像度から高解像度の画像生成に着想を得て,テキストを漸進的に生成する簡易かつ効果的な手法を提案する。
提案手法はまずドメイン固有のコンテンツキーワードを生成し,その後,複数の段階の完全文に分解する。
単純な設計により、我々のアプローチは各ステージで事前訓練されたlmsを活用でき、少数の例だけを与えられた任意のターゲットドメインに効果的に対応できる。
我々は,幅広い評価指標を用いて包括的実証研究を行い,その手法が品質とサンプル効率の面で,微調整された大型lmsと様々なプランニング・ザ・ジェネレーション法によって著しく改善されていることを示す。
人間の評価は、モデル世代がより一貫性があることを示す。
関連論文リスト
- A Simple yet Efficient Ensemble Approach for AI-generated Text Detection [0.5840089113969194]
大規模言語モデル(LLM)は、人間の文章によく似たテキストを生成する際、顕著な能力を示した。
人工的に生成されたテキストと人間が作成したテキストを区別できる自動化アプローチを構築することが不可欠である。
本稿では,複数の構成 LLM からの予測をまとめて,シンプルで効率的な解を提案する。
論文 参考訳(メタデータ) (2023-11-06T13:11:02Z) - Language Model Decoding as Direct Metrics Optimization [87.68281625776282]
現在の復号法は、異なる側面にわたる人間のテキストと整合するテキストを生成するのに苦労している。
本研究では,言語モデルからの復号化を最適化問題として,期待される性能と人間のテキストとの厳密なマッチングを目的とした。
この誘導分布は,人間のテキストの難易度を向上させることが保証されていることを証明し,人間のテキストの基本的な分布に対するより良い近似を示唆する。
論文 参考訳(メタデータ) (2023-10-02T09:35:27Z) - SimOAP: Improve Coherence and Consistency in Persona-based Dialogue
Generation via Over-sampling and Post-evaluation [54.66399120084227]
大規模コーパスで訓練された言語モデルは、オープンドメイン対話において驚くほど流動的な結果を生み出すことができる。
ペルソナに基づく対話生成タスクでは、一貫性と一貫性が言語モデルにとって大きな課題である。
オーバーサンプリングとポスト評価という2段階のSimOAP戦略が提案されている。
論文 参考訳(メタデータ) (2023-05-18T17:23:00Z) - Improving Pre-trained Language Model Fine-tuning with Noise Stability
Regularization [94.4409074435894]
本稿では,LNSR(Layerwise Noise Stability Regularization)という,新規かつ効果的な微調整フレームワークを提案する。
具体的には、標準ガウス雑音を注入し、微調整モデルの隠れ表現を正規化することを提案する。
提案手法は,L2-SP,Mixout,SMARTなど他の最先端アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-12T04:42:49Z) - Reinforcement Learning for Few-Shot Text Generation Adaptation [0.0]
テキスト生成システムの適応化を強化学習問題として検討する。
ドメイン内サンプルが少ない場合,本手法はドメイン適応を著しく上回ることを示す。
論文 参考訳(メタデータ) (2021-11-22T07:33:40Z) - Pretrained Language Models for Text Generation: A Survey [46.03096493973206]
本稿では、テキスト生成のための事前学習言語モデル(PLM)のトピックにおいて達成された大きな進歩について概説する。
我々は、既存のPLMを異なる入力データに適応させ、生成したテキストの特別な特性を満たす方法について論じる。
論文 参考訳(メタデータ) (2021-05-21T12:27:44Z) - GPT3Mix: Leveraging Large-scale Language Models for Text Augmentation [9.501648136713694]
GPT-3のような大規模言語モデルは優れた数ショット学習者であり、自然なテキストプロンプトで制御できる。
本稿では,大規模言語モデルを用いて現実的なテキストサンプルを生成する新しいデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2021-04-18T11:39:33Z) - SDA: Improving Text Generation with Self Data Augmentation [88.24594090105899]
自動データ拡張のための自己模倣学習フェーズを組み込むことにより,標準最大確率推定(MLE)パラダイムを改善することを提案する。
既存の文レベルの拡張戦略とは異なり,本手法はより汎用的で,任意のMLEベースの訓練手順に容易に適応できる。
論文 参考訳(メタデータ) (2021-01-02T01:15:57Z) - Few-Shot Text Generation with Pattern-Exploiting Training [12.919486518128734]
本稿では,テキスト生成タスクにも基礎となるアイデアが適用可能であることを示す。
最近提案された少数のショットアプローチであるPattern-Exploiting Training(PET)を、テキスト生成タスクで生成言語モデルを微調整するために適用します。
論文 参考訳(メタデータ) (2020-12-22T10:53:07Z) - Unsupervised Domain Adaptation of a Pretrained Cross-Lingual Language
Model [58.27176041092891]
最近の研究は、大規模未ラベルテキストに対する言語間言語モデルの事前学習が、大幅な性能向上をもたらすことを示唆している。
本稿では,絡み合った事前学習した言語間表現からドメイン固有の特徴を自動的に抽出する,教師なし特徴分解手法を提案する。
提案モデルでは、相互情報推定を利用して、言語間モデルによって計算された表現をドメイン不変部分とドメイン固有部分に分解する。
論文 参考訳(メタデータ) (2020-11-23T16:00:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。