論文の概要: A Well-Composed Text is Half Done! Composition Sampling for Diverse
Conditional Generation
- arxiv url: http://arxiv.org/abs/2203.15108v1
- Date: Mon, 28 Mar 2022 21:24:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-31 10:25:44.543825
- Title: A Well-Composed Text is Half Done! Composition Sampling for Diverse
Conditional Generation
- Title(参考訳): よくできたテキストは半分だ!
多様な条件生成のための組成サンプリング
- Authors: Shashi Narayan, Gon\c{c}alo Sim\~oes, Yao Zhao, Joshua Maynez,
Dipanjan Das, Michael Collins and Mirella Lapata
- Abstract要約: 高品質の条件付き生成のための多種多様な出力を生成するための簡易で効果的な合成サンプリング法であるコンポジションサンプリングを提案する。
これは最近提案された計画ベースのニューラルジェネレーションモデルに基づいて構築され、まず最初に出力の合成を作成し、それと入力を条件付けして生成するように訓練される。
- 参考スコア(独自算出の注目度): 79.98319703471596
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose Composition Sampling, a simple but effective method to generate
diverse outputs for conditional generation of higher quality compared to
previous stochastic decoding strategies. It builds on recently proposed
plan-based neural generation models (Narayan et al, 2021) that are trained to
first create a composition of the output and then generate by conditioning on
it and the input. Our approach avoids text degeneration by first sampling a
composition in the form of an entity chain and then using beam search to
generate the best possible text grounded to this entity chain. Experiments on
summarization (CNN/DailyMail and XSum) and question generation (SQuAD), using
existing and newly proposed automatic metrics together with human-based
evaluation, demonstrate that Composition Sampling is currently the best
available decoding strategy for generating diverse meaningful outputs.
- Abstract(参考訳): 本研究では,従来の確率的復号法と比較して,条件付き高品質な出力を生成するための簡易かつ効果的な構成サンプリング法を提案する。
これは最近提案された計画ベースのニューラルジェネレーションモデル(Narayan et al, 2021)に基づいて構築され、まず出力の合成を作成し、それと入力を条件付けして生成するように訓練されている。
提案手法は,まずエンティティチェーンの形で合成をサンプリングし,次にビームサーチを用いて,このエンティティチェーンを基盤とした最高のテキストを生成することによって,テキストの劣化を回避する。
cnn/dailymail, xsum) と質問生成(squad)の実験では,現在提案されている既存の自動メトリクスと人間に基づく評価を併用して,合成サンプリングが多様な有意義な出力を生成するための最善のデコード戦略であることを実証する。
関連論文リスト
- Balancing Diversity and Risk in LLM Sampling: How to Select Your Method and Parameter for Open-Ended Text Generation [60.493180081319785]
本稿では,各復号工程における多様性とリスクのトレードオフを考慮し,トラクションサンプリング手法の本質的な能力を推定する体系的手法を提案する。
本研究は,既存のトラクションサンプリング手法の総合的な比較と,ユーザのガイドラインとして推奨されるパラメータについて紹介する。
論文 参考訳(メタデータ) (2024-08-24T14:14:32Z) - Turning Up the Heat: Min-p Sampling for Creative and Coherent LLM Outputs [4.122612309805664]
大規模言語モデル(LLM)は、各復号ステップにおける語彙上の確率分布から次のトークンをサンプリングしてテキストを生成する。
トップトークンの確率に応じてスケールすることでモデルの信頼度に基づいてサンプリングしきい値を調整する動的トランケーション法である min-p サンプリングを提案する。
我々はGPQA、GSM8K、AlpacaEval Creative Writingなどのベンチマーク実験を行い、min-pサンプリングが生成したテキストの品質と多様性を特に高温で改善することを示した。
論文 参考訳(メタデータ) (2024-07-01T08:37:25Z) - Self-Consistent Decoding for More Factual Open Responses [28.184313177333642]
Sample & Selectは、DoLA、P-CRR、S-CRRのデコーダに対して、30%の相対的なマージンで事実性を向上する。
生成した要約の人間による検証を収集し,本手法の実際的優位性を確認する。
論文 参考訳(メタデータ) (2024-03-01T17:31:09Z) - Principled Gradient-based Markov Chain Monte Carlo for Text Generation [77.46654898866291]
目標エネルギーに基づくテキスト分布を正確にサンプリングするために, 忠実な勾配に基づくサンプリングアルゴリズムを提案する。
我々は、忠実なサンプリング者が制御対象に忠実に固執しながら、より流動的なテキストを生成できることを実証する。
論文 参考訳(メタデータ) (2023-12-29T18:00:56Z) - Data-to-text Generation with Variational Sequential Planning [74.3955521225497]
非言語的な入力からテキスト出力を生成することを目的としたデータ・ツー・テキスト生成の課題について考察する。
協調的かつ有意義な方法で高レベルの情報を整理する責任を負う計画要素を付加したニューラルモデルを提案する。
我々は、計画と生成のステップをインターリーブしながら、構造化された変動モデルで逐次、潜在計画を推測する。
論文 参考訳(メタデータ) (2022-02-28T13:17:59Z) - Sequence-Level Mixed Sample Data Augmentation [119.94667752029143]
本研究は、シーケンス対シーケンス問題に対するニューラルモデルにおける合成行動を促進するための単純なデータ拡張手法を提案する。
我々の手法であるSeqMixは、トレーニングセットから入力/出力シーケンスをソフトに結合することで、新しい合成例を作成する。
論文 参考訳(メタデータ) (2020-11-18T02:18:04Z) - Self-Adversarial Learning with Comparative Discrimination for Text
Generation [111.18614166615968]
本稿では,テキスト生成におけるGANの性能向上のための,新たな自己逆学習(SAL)パラダイムを提案する。
トレーニング中、SALは、現在生成された文が以前生成されたサンプルより優れていると判断されたときにジェネレータに報酬を与える。
テキスト生成ベンチマークデータセットの実験により,提案手法は品質と多様性の両方を大幅に改善することが示された。
論文 参考訳(メタデータ) (2020-01-31T07:50:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。