論文の概要: Contrastive Decoding: Open-ended Text Generation as Optimization
- arxiv url: http://arxiv.org/abs/2210.15097v1
- Date: Thu, 27 Oct 2022 00:58:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 12:16:56.715897
- Title: Contrastive Decoding: Open-ended Text Generation as Optimization
- Title(参考訳): コントラストデコーディング:最適化としてのオープンエンドテキスト生成
- Authors: Xiang Lisa Li, Ari Holtzman, Daniel Fried, Percy Liang, Jason Eisner,
Tatsunori Hashimoto, Luke Zettlemoyer, Mike Lewis
- Abstract要約: Likelihoodは、言語モデル(LM)からのオープンエンドジェネレーションを導くための検索目標として不十分である
提案手法は,大きなLMと小さなLMの確率差を返却する,より信頼性の高い探索対象であるコントラストデコーディング(CD)を提案する。
CDはゼロのトレーニングを必要とし、より大きなLMからの復号化よりも高品質なテキストを生成する。
- 参考スコア(独自算出の注目度): 153.35961722855686
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Likelihood, although useful as a training loss, is a poor search objective
for guiding open-ended generation from language models (LMs). Existing
generation algorithms must avoid both unlikely strings, which are incoherent,
and highly likely ones, which are short and repetitive. We propose contrastive
decoding (CD), a more reliable search objective that returns the difference
between likelihood under a large LM (called the expert, e.g. OPT-13b) and a
small LM (called the amateur, e.g. OPT-125m). CD is inspired by the fact that
the failures of larger LMs are even more prevalent in smaller LMs, and that
this difference signals exactly which texts should be preferred. CD requires
zero training, and produces higher quality text than decoding from the larger
LM alone. It also generalizes across model types (OPT and GPT2) and
significantly outperforms four strong decoding algorithms in automatic and
human evaluations.
- Abstract(参考訳): Likelihoodは、トレーニング損失として有用であるが、言語モデル(LM)からオープンエンドジェネレーションを導くための検索目標としては不十分である。
既存の生成アルゴリズムは、非一貫性の文字列と、短く反復的な文字列の両方を避ける必要がある。
我々は,大規模なLM(例えば,OPT-13b)と小さなLM(例えば,OPT-125m)との差を返却する,より信頼性の高い探索目的であるコントラストデコーディング(CD)を提案する。
CDは、より大きなLMの失敗がより小さいLMでさらに多いことや、この差がどのテキストを好むべきかを正確に示しているという事実に着想を得ている。
CDはゼロのトレーニングを必要とし、より大きなLMからの復号化よりも高品質なテキストを生成する。
また、モデルタイプ(OPTとGPT2)をまたいで一般化し、自動および人的評価において4つの強力な復号アルゴリズムを大幅に上回っている。
関連論文リスト
- Explaining and Improving Contrastive Decoding by Extrapolating the Probabilities of a Huge and Hypothetical LM [93.8400683020273]
コントラストデコーディング(CD)は,小型のアマチュアLMを用いて,大規模専門家言語モデル(LM)の次点分布を改善する。
我々は$mathbfA$symptotic $mathbfP$robability $mathbfD$ecoding (APD)と呼ばれる新しい教師なし復号法を提案する。
APDは異なる大きさのLMから確率曲線を明示的に外挿し、CDよりも多くの推論コストを発生させることなく無限大のLMから確率曲線を推定する。
論文 参考訳(メタデータ) (2024-11-03T15:31:44Z) - $\mathbb{USCD}$: Improving Code Generation of LLMs by Uncertainty-Aware Selective Contrastive Decoding [64.00025564372095]
大規模言語モデル(LLM)は、コード生成において顕著な能力を示している。
幻覚の影響(例えば出力ノイズ)は、LLMが1パスで高品質なコードを生成するのを難しくする。
単純かつ効果的なtextbfuncertainty-aware textbf select textbfcontrastive textbfdecodingを提案する。
論文 参考訳(メタデータ) (2024-09-09T02:07:41Z) - Decoding Matters: Addressing Amplification Bias and Homogeneity Issue for LLM-based Recommendation [32.85339480783571]
Debiasing-Diversifying Decoding (D3) という新しいデコード手法を導入する。
D3はゴーストトークンの長さ正規化を無効にして増幅バイアスを軽減する。
実世界のデータセットの実験では、この手法の有効性が示されている。
論文 参考訳(メタデータ) (2024-06-21T06:47:28Z) - Contrastive Decoding Improves Reasoning in Large Language Models [55.16503283583076]
コントラストデコーディングは,様々な推論タスクにおいて,グリージーデコーディングよりもアウト・オブ・ボックスの大幅な改善を実現することを示す。
本稿では,LLaMA-65BがHellaSwag Commonsense reasoning benchmark上でLLaMA 2, GPT-3.5, PaLM 2-Lより優れていることを示す。
論文 参考訳(メタデータ) (2023-09-17T00:29:32Z) - Surfacing Biases in Large Language Models using Contrastive Input
Decoding [12.694066526722203]
コントラスト入力復号法(コントラスト入力復号法、Contrastive Input Decoding, CID)は、2つの入力を与えられたテキストを生成する復号アルゴリズムである。
CIDを使って、標準的なデコード戦略では検出が難しいコンテキスト固有のバイアスを強調します。
論文 参考訳(メタデータ) (2023-05-12T11:09:49Z) - Stealing the Decoding Algorithms of Language Models [56.369946232765656]
現代の言語モデル(LM)からテキストを生成する重要な要素は、復号アルゴリズムの選択とチューニングである。
本研究では,LMに典型的なAPIアクセスを持つ敵が,その復号アルゴリズムの型とハイパーパラメータを盗むことができることを示す。
我々の攻撃は、GPT-2、GPT-3、GPT-Neoなどのテキスト生成APIで使われる一般的なLMに対して効果的である。
論文 参考訳(メタデータ) (2023-03-08T17:15:58Z) - Factuality Enhanced Language Models for Open-Ended Text Generation [60.27166549575472]
我々は、LM世代の実測のためのFactalityPromptsテストセットとメトリクスを設計する。
より大きなLMはより小さなものよりも現実的であることが分かるが、以前の研究では、大きなLMは誤解の観点からは真実性が低いことを示唆している。
そこで本稿では,TopicPrefixを用いた事実認識と文完成のための実感強化学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-09T17:16:43Z) - Is Your Language Model Ready for Dense Representation Fine-tuning? [15.238322226336232]
本論文は, 微調整における高密度表現による知識の公開は, LMの即応性に起因していることを示す。
本稿では,変圧器lmsに基づく一般的な事前学習アーキテクチャであるコンデンサを提案する。
論文 参考訳(メタデータ) (2021-04-16T17:36:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。