論文の概要: RankGen: Improving Text Generation with Large Ranking Models
- arxiv url: http://arxiv.org/abs/2205.09726v1
- Date: Thu, 19 May 2022 17:36:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-20 12:09:50.654694
- Title: RankGen: Improving Text Generation with Large Ranking Models
- Title(参考訳): rankgen: 大きなランキングモデルによるテキスト生成の改善
- Authors: Kalpesh Krishna, Yapei Chang, John Wieting, Mohit Iyyer
- Abstract要約: RankGenは、プレフィックスを与えられた世代をスコアするエンコーダモデルである。
ビームサーチにおいてスコアリング関数として柔軟に組み込むことができる。
RankGenは、核、トップk、典型的なサンプリングといったデコードアルゴリズムよりも大幅に優れています。
- 参考スコア(独自算出の注目度): 43.448251157355784
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given an input sequence (or prefix), modern language models often assign high
probabilities to output sequences that are repetitive, incoherent, or
irrelevant to the prefix; as such, model-generated text also contains such
artifacts. To address these issues, we present RankGen, an encoder model (1.2B
parameters) that scores model generations given a prefix. RankGen can be
flexibly incorporated as a scoring function in beam search and used to decode
from any pretrained language model. We train RankGen using large-scale
contrastive learning to map a prefix close to the ground-truth sequence that
follows it and far away from two types of negatives: (1) random sequences from
the same document as the prefix, and, which discourage topically-similar but
irrelevant generations; (2) sequences generated from a large language model
conditioned on the prefix, which discourage repetition and hallucination.
Experiments across four different language models (345M-11B parameters) and two
domains show that RankGen significantly outperforms decoding algorithms like
nucleus, top-k, and typical sampling on both automatic metrics (85.0 vs 77.3
MAUVE) as well as human evaluations with English writers (74.5% human
preference over nucleus sampling). Analysis reveals that RankGen outputs are
more relevant to the prefix and improve continuity and coherence compared to
baselines. We open source our model checkpoints, code, and human preferences
with detailed explanations for future research.
- Abstract(参考訳): 入力シーケンス(またはプレフィックス)が与えられた場合、現代の言語モデルは、しばしばプレフィックスに関係のない繰り返し、一貫性のない、あるいは非一貫性のないシーケンスを出力するために高い確率を割り当てる。
これらの問題に対処するために、プレフィックスを与えられたモデル世代をスコアするエンコーダモデル(1.2Bパラメータ)であるRanGenを提案する。
RankGenはビームサーチにおいてスコアリング関数として柔軟に組み込まれ、事前訓練された言語モデルからデコードするために使用される。
大規模コントラスト学習を用いてLangeGenを訓練し、それに続く接頭辞列に近い接頭辞を2つの負のタイプから遠く離れたものにマッピングする。(1) 同一の文書からランダムな列を抽出し、(2) 接頭辞に条件づけられた大きな言語モデルから生成される列は反復と幻覚を阻止する。
4つの異なる言語モデル(345M-11Bパラメータ)と2つのドメインにわたる実験により、RangeGenは、カーネル、トップk、典型的なサンプリングのようなデコードアルゴリズム(85.0対77.3 MAUVE)と、イングランドのライターによる人間による評価(74.5%が核サンプリングよりも人間の好み)を著しく上回っている。
分析により、rankgen出力はプレフィックスとより関連があり、ベースラインと比較して連続性とコヒーレンスを改善することが分かる。
我々は、将来の研究の詳細な説明とともに、モデルチェックポイント、コード、人間の好みをオープンソースにしています。
関連論文リスト
- Benchmarking Large Language Models with Integer Sequence Generation Tasks [1.3108652488669736]
本稿では,大規模言語モデル(LLM)がオンラインシーケンス百科事典(OEIS)から整数列を計算するコードを書かなければならない,新たなベンチマークを提案する。
ベンチマークの結果、OpenAI、Anthropic、Meta、Googleの他のフロンティアモデルよりも、簡単かつハードな整数シーケンス間の精度と不正なレートで、o1シリーズのモデルの方が優れていることが判明した。
論文 参考訳(メタデータ) (2024-11-07T02:05:43Z) - Promises and Pitfalls of Generative Masked Language Modeling: Theoretical Framework and Practical Guidelines [74.42485647685272]
GMLM(Generative Masked Language Models)に焦点を当てる。
我々は,マルコフ連鎖の入力として使用されるマスキングにより,データ分布の条件付き確率に適合するモデルを訓練し,モデルからサンプルを抽出する。
我々は,T5モデルを並列デコーディングに適応させ,最小品質の犠牲を伴って機械翻訳における2~3倍の高速化を実現した。
論文 参考訳(メタデータ) (2024-07-22T18:00:00Z) - Inflected Forms Are Redundant in Question Generation Models [27.49894653349779]
本稿では,エンコーダ・デコーダ・フレームワークを用いた質問生成の性能向上手法を提案する。
まず,エンコーダの入力から入力された単語を識別し,根語に置き換える。
次に,エンコード・デコーダ・フレームワークにおける以下の動作の組合せとしてQGを適用することを提案する。質問語の生成,ソースシーケンスからの単語のコピー,単語変換型の生成である。
論文 参考訳(メタデータ) (2023-01-01T13:08:11Z) - CodeExp: Explanatory Code Document Generation [94.43677536210465]
既存のコード・トゥ・テキスト生成モデルは、コードの高レベルな要約のみを生成する。
我々は、コードのための高品質な説明記述の基準を特定するために、人間の研究を行う。
タスクのための多段階微調整戦略とベースラインモデルを提案する。
論文 参考訳(メタデータ) (2022-11-25T18:05:44Z) - A Non-monotonic Self-terminating Language Model [62.93465126911921]
本稿では,不完全復号アルゴリズムによる非終端列の問題に焦点をあてる。
まず、グリーディ探索、トップ$kのサンプリング、核サンプリングを含む不完全確率復号アルゴリズムを定義する。
次に,単調な終端確率の制約を緩和する非単調な自己終端言語モデルを提案する。
論文 参考訳(メタデータ) (2022-10-03T00:28:44Z) - Twist Decoding: Diverse Generators Guide Each Other [116.20780037268801]
様々なモデルの恩恵を受けながらテキストを生成するシンプルで一般的な推論アルゴリズムであるTwist decodingを導入する。
我々の方法は、語彙、トークン化、あるいは生成順序が共有されていると仮定しない。
論文 参考訳(メタデータ) (2022-05-19T01:27:53Z) - Massive-scale Decoding for Text Generation using Lattices [34.2658286826597]
多数の生成オプションを符号化する格子を構成するための探索アルゴリズムを提案する。
我々のアルゴリズムは、文法的かつ高品質な数百から数千の多様な選択肢を1つの線形サイズの格子に符号化している。
論文 参考訳(メタデータ) (2021-12-14T18:56:11Z) - Unsupervised and Distributional Detection of Machine-Generated Text [1.552214657968262]
自然言語生成モデルのパワーは、テキストが人間かマシンオーサリングされているかを検出する自動手法への関心の高まりを引き起こしている。
繰り返し高次n-gramを利用した機械生成文書の検出手法を提案する。
我々の実験は、その信号を利用することで、不審な文書を正確にランク付けできることを示している。
論文 参考訳(メタデータ) (2021-11-04T14:07:46Z) - On the Discrepancy between Density Estimation and Sequence Generation [92.70116082182076]
log-likelihoodは、同じファミリー内のモデルを考えるとき、BLEUと非常に相関している。
異なる家族間でのモデルランキングの相関はみられない。
論文 参考訳(メタデータ) (2020-02-17T20:13:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。