論文の概要: Contrastive Decoding: Open-ended Text Generation as Optimization
- arxiv url: http://arxiv.org/abs/2210.15097v2
- Date: Mon, 10 Jul 2023 06:08:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-13 16:54:55.046646
- Title: Contrastive Decoding: Open-ended Text Generation as Optimization
- Title(参考訳): コントラストデコーディング:最適化としてのオープンエンドテキスト生成
- Authors: Xiang Lisa Li, Ari Holtzman, Daniel Fried, Percy Liang, Jason Eisner,
Tatsunori Hashimoto, Luke Zettlemoyer, Mike Lewis
- Abstract要約: 信頼性の高い復号法であるコントラスト復号法(CD)を提案する。
これは、より大きなLMの故障がより小さなLMでさらに多いという事実に着想を得たものである。
CDは追加のトレーニングを一切必要とせず、より大きなLMからの復号化よりも高品質なテキストを生成する。
- 参考スコア(独自算出の注目度): 153.35961722855686
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Given a language model (LM), maximum probability is a poor decoding objective
for open-ended generation, because it produces short and repetitive text. On
the other hand, sampling can often produce incoherent text that drifts from the
original topics. We propose contrastive decoding (CD), a reliable decoding
approach that optimizes a contrastive objective subject to a plausibility
constraint. The contrastive objective returns the difference between the
likelihood under a large LM (called the expert, e.g. OPT-13B) and a small LM
(called the amateur, e.g. OPT-125M), and the constraint ensures that the
outputs are plausible. CD is inspired by the fact that the failures of larger
LMs (e.g., repetition, incoherence) are even more prevalent in smaller LMs, and
that this difference signals which texts should be preferred. CD requires zero
additional training, and produces higher quality text than decoding from the
larger LM alone. It also works across model scales (OPT-13B and GPT2-1.5B) and
significantly outperforms four strong decoding algorithms (e.g., nucleus,
top-k) in automatic and human evaluations across wikipedia, news and story
domains.
- Abstract(参考訳): 言語モデル(lm)が与えられた場合、最大確率は、短い反復的なテキストを生成するため、オープンエンド世代のための貧弱な復号目的である。
一方、サンプリングは、しばしば元のトピックから漂う一貫性のないテキストを生成する。
本稿では,可視性制約対象のコントラスト目的を最適化する信頼性復号法であるコントラスト復号法(CD)を提案する。
対照的な目的は、大きなLM(例えば、OPT-13B)と小さなLM(例えば、OPT-125M)における可能性の差を返し、制約は出力が可算であることを保証する。
CDは、より大きなLM(例えば反復、不整合)の失敗がより小さいLMでさらに多いことや、どのテキストが好まれるかの差信号に着想を得ている。
cdは追加のトレーニングを一切必要とせず、より大きなlmからデコードするよりも高品質なテキストを生成する。
また、モデルスケール(OPT-13BとGPT2-1.5B)で動作し、4つの強力な復号アルゴリズム(例えば、核、トップk)をwikipedia、ニュース、ストーリードメインで自動的に評価する。
関連論文リスト
- Explaining and Improving Contrastive Decoding by Extrapolating the Probabilities of a Huge and Hypothetical LM [93.8400683020273]
コントラストデコーディング(CD)は,小型のアマチュアLMを用いて,大規模専門家言語モデル(LM)の次点分布を改善する。
我々は$mathbfA$symptotic $mathbfP$robability $mathbfD$ecoding (APD)と呼ばれる新しい教師なし復号法を提案する。
APDは異なる大きさのLMから確率曲線を明示的に外挿し、CDよりも多くの推論コストを発生させることなく無限大のLMから確率曲線を推定する。
論文 参考訳(メタデータ) (2024-11-03T15:31:44Z) - $\mathbb{USCD}$: Improving Code Generation of LLMs by Uncertainty-Aware Selective Contrastive Decoding [64.00025564372095]
大規模言語モデル(LLM)は、コード生成において顕著な能力を示している。
幻覚の影響(例えば出力ノイズ)は、LLMが1パスで高品質なコードを生成するのを難しくする。
単純かつ効果的なtextbfuncertainty-aware textbf select textbfcontrastive textbfdecodingを提案する。
論文 参考訳(メタデータ) (2024-09-09T02:07:41Z) - Decoding Matters: Addressing Amplification Bias and Homogeneity Issue for LLM-based Recommendation [32.85339480783571]
Debiasing-Diversifying Decoding (D3) という新しいデコード手法を導入する。
D3はゴーストトークンの長さ正規化を無効にして増幅バイアスを軽減する。
実世界のデータセットの実験では、この手法の有効性が示されている。
論文 参考訳(メタデータ) (2024-06-21T06:47:28Z) - Contrastive Decoding Improves Reasoning in Large Language Models [55.16503283583076]
コントラストデコーディングは,様々な推論タスクにおいて,グリージーデコーディングよりもアウト・オブ・ボックスの大幅な改善を実現することを示す。
本稿では,LLaMA-65BがHellaSwag Commonsense reasoning benchmark上でLLaMA 2, GPT-3.5, PaLM 2-Lより優れていることを示す。
論文 参考訳(メタデータ) (2023-09-17T00:29:32Z) - Surfacing Biases in Large Language Models using Contrastive Input
Decoding [12.694066526722203]
コントラスト入力復号法(コントラスト入力復号法、Contrastive Input Decoding, CID)は、2つの入力を与えられたテキストを生成する復号アルゴリズムである。
CIDを使って、標準的なデコード戦略では検出が難しいコンテキスト固有のバイアスを強調します。
論文 参考訳(メタデータ) (2023-05-12T11:09:49Z) - Stealing the Decoding Algorithms of Language Models [56.369946232765656]
現代の言語モデル(LM)からテキストを生成する重要な要素は、復号アルゴリズムの選択とチューニングである。
本研究では,LMに典型的なAPIアクセスを持つ敵が,その復号アルゴリズムの型とハイパーパラメータを盗むことができることを示す。
我々の攻撃は、GPT-2、GPT-3、GPT-Neoなどのテキスト生成APIで使われる一般的なLMに対して効果的である。
論文 参考訳(メタデータ) (2023-03-08T17:15:58Z) - Factuality Enhanced Language Models for Open-Ended Text Generation [60.27166549575472]
我々は、LM世代の実測のためのFactalityPromptsテストセットとメトリクスを設計する。
より大きなLMはより小さなものよりも現実的であることが分かるが、以前の研究では、大きなLMは誤解の観点からは真実性が低いことを示唆している。
そこで本稿では,TopicPrefixを用いた事実認識と文完成のための実感強化学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-09T17:16:43Z) - Is Your Language Model Ready for Dense Representation Fine-tuning? [15.238322226336232]
本論文は, 微調整における高密度表現による知識の公開は, LMの即応性に起因していることを示す。
本稿では,変圧器lmsに基づく一般的な事前学習アーキテクチャであるコンデンサを提案する。
論文 参考訳(メタデータ) (2021-04-16T17:36:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。