論文の概要: Calibrating Sequence likelihood Improves Conditional Language Generation
- arxiv url: http://arxiv.org/abs/2210.00045v1
- Date: Fri, 30 Sep 2022 19:16:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 14:58:55.782470
- Title: Calibrating Sequence likelihood Improves Conditional Language Generation
- Title(参考訳): 条件付き言語生成を改善するシーケンスラピッドのキャリブレーション
- Authors: Yao Zhao, Misha Khalman, Rishabh Joshi, Shashi Narayan, Mohammad
Saleh, Peter J. Liu
- Abstract要約: 条件言語モデルは主に最大推定(MLE)を用いて訓練される
MLEの訓練されたモデルは、文脈が与えられた場合、高い確率を可算列に割り当てるが、モデル確率は、品質によって正確なランク順生成列を割り当てないことが多い。
本稿では,モデルの潜在空間における参照シーケンスとの整合性を高めるために,モデル生成シーケンスのキャリブレーションを行うSLiC(Sequence chance calibration)を提案する。
- 参考スコア(独自算出の注目度): 39.35161650538767
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conditional language models are predominantly trained with maximum likelihood
estimation (MLE), giving probability mass to sparsely observed target
sequences. While MLE trained models assign high probability to plausible
sequences given the context, the model probabilities often do not accurately
rank-order generated sequences by quality. This has been empirically observed
in beam search decoding as output quality degrading with large beam sizes, and
decoding strategies benefiting from heuristics such as length normalization and
repetition-blocking. In this work, we introduce sequence likelihood calibration
(SLiC) where the likelihood of model generated sequences are calibrated to
better align with reference sequences in the model's latent space. With SLiC,
decoding heuristics become unnecessary and decoding candidates' quality
significantly improves regardless of the decoding method. Furthermore, SLiC
shows no sign of diminishing returns with model scale, and presents alternative
ways to improve quality with limited training and inference budgets. With SLiC,
we exceed or match SOTA results on a wide range of generation tasks spanning
abstractive summarization, question generation, abstractive question answering
and data-to-text generation, even with modest-sized models.
- Abstract(参考訳): 条件付き言語モデルは主に最大確率推定 (mle) で訓練され、観測されたターゲットシーケンスに確率質量を与える。
MLEの訓練されたモデルは、文脈が与えられた場合、高い確率を可算列に割り当てるが、モデル確率は品質によって正確にランク順生成シーケンスを割り当てないことが多い。
これは、ビーム探索復号法において、大きなビームサイズで出力品質を劣化させ、長さ正規化や繰り返しブロッキングのようなヒューリスティックな手法による復号戦略として実証的に観察されている。
本研究では,モデルの潜在空間における参照シーケンスとの整合性を高めるために,モデル生成シーケンスのキャリブレーションを行うシーケンスキャリブレーション(SLiC)を導入する。
SLiCでは、復号法は不要になり、復号法にかかわらず、候補の品質が大幅に向上する。
さらに、SLiCはモデルスケールでリターンが低下する兆候がなく、限られたトレーニングと推論予算で品質を改善する方法を示している。
SLiCでは, 抽象的な要約, 質問生成, 抽象的な質問応答, テキスト生成にまたがる幅広いタスクにおいて, モデストサイズのモデルであってもSOTA結果を上回るか一致させる。
関連論文リスト
- Calibrating Likelihoods towards Consistency in Summarization Models [22.023863165579602]
このような振る舞いの主な理由は、最大極大目標で訓練された要約モデルが、文脈が与えられた有理系列に高い確率を割り当てることである。
本研究では、自然言語推論(NLI)モデルにより測定された一貫性の測定値と整合性を高めるために、モデル生成シーケンスの可能性を校正することで、この問題を解決する。
論文 参考訳(メタデータ) (2023-10-12T23:17:56Z) - Instruction Position Matters in Sequence Generation with Large Language
Models [67.87516654892343]
大規模言語モデル(LLM)は、翻訳や要約といった条件付きシーケンス生成タスクを実行することができる。
入力文の後にタスク命令の位置をシフトさせることにより,LLMの指示追従能力を向上させることを提案する。
論文 参考訳(メタデータ) (2023-08-23T12:36:57Z) - SequenceMatch: Imitation Learning for Autoregressive Sequence Modelling with Backtracking [60.109453252858806]
MLE(Maxum-likelihood)の目的は、高品質なシーケンスを自動回帰的に生成する下流のユースケースと一致しない。
我々は、模倣学習(IL)問題としてシーケンス生成を定式化する。
これにより、自己回帰モデルによって生成されるシーケンスの分布とデータセットからのシーケンスとの差異を最小化できる。
得られた手法であるSequenceMatchは、敵の訓練やアーキテクチャの変更なしに実装できる。
論文 参考訳(メタデータ) (2023-06-08T17:59:58Z) - A Non-monotonic Self-terminating Language Model [62.93465126911921]
本稿では,不完全復号アルゴリズムによる非終端列の問題に焦点をあてる。
まず、グリーディ探索、トップ$kのサンプリング、核サンプリングを含む不完全確率復号アルゴリズムを定義する。
次に,単調な終端確率の制約を緩和する非単調な自己終端言語モデルを提案する。
論文 参考訳(メタデータ) (2022-10-03T00:28:44Z) - Out-of-Distribution Detection and Selective Generation for Conditional
Language Models [40.15896981028647]
条件付き言語モデル(CLM)は、出力シーケンスで次のトークンを分類するために主に訓練される。
CLMの高精度かつ軽量なOOD検出法を提案する。
提案手法は,高品質な出力を選択的に生成するために,分布シフトの一般的かつ現実的な設定の下でどのように使用できるかを示す。
論文 参考訳(メタデータ) (2022-09-30T16:17:11Z) - CodeRL: Mastering Code Generation through Pretrained Models and Deep
Reinforcement Learning [92.36705236706678]
CodeRLは、事前訓練されたLMと深層強化学習によるプログラム合成タスクのための新しいフレームワークである。
推論中、我々は重要なサンプリング戦略を持つ新しい生成手順を導入する。
モデルバックボーンについては,CodeT5のエンコーダデコーダアーキテクチャを拡張し,学習目標を拡張した。
論文 参考訳(メタデータ) (2022-07-05T02:42:15Z) - Energy-Based Models for Code Generation under Compilability Constraints [2.9176992922046923]
本研究では,コンパイル可能なコードを制約満足度として生成する学習の課題を提起する。
本稿では,コンパイル可能なシーケンスのみを生成する制約を課した,事前学習された生成モデルを表すEnergy-Based Model(EBM)を定義する。
次に,KL-Adaptive Distributional Policy Gradientアルゴリズムを用いて,EMMを近似した生成モデルを訓練する。
論文 参考訳(メタデータ) (2021-06-09T11:06:32Z) - Consistency of a Recurrent Language Model With Respect to Incomplete
Decoding [67.54760086239514]
逐次言語モデルから無限長のシーケンスを受信する問題について検討する。
不整合に対処する2つの対策として、トップkと核サンプリングの一貫性のある変種と、自己終端の繰り返し言語モデルを提案する。
論文 参考訳(メタデータ) (2020-02-06T19:56:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。