論文の概要: Contrastive Decoding: Open-ended Text Generation as Optimization
- arxiv url: http://arxiv.org/abs/2210.15097v1
- Date: Thu, 27 Oct 2022 00:58:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 12:16:56.715897
- Title: Contrastive Decoding: Open-ended Text Generation as Optimization
- Title(参考訳): コントラストデコーディング:最適化としてのオープンエンドテキスト生成
- Authors: Xiang Lisa Li, Ari Holtzman, Daniel Fried, Percy Liang, Jason Eisner,
Tatsunori Hashimoto, Luke Zettlemoyer, Mike Lewis
- Abstract要約: Likelihoodは、言語モデル(LM)からのオープンエンドジェネレーションを導くための検索目標として不十分である
提案手法は,大きなLMと小さなLMの確率差を返却する,より信頼性の高い探索対象であるコントラストデコーディング(CD)を提案する。
CDはゼロのトレーニングを必要とし、より大きなLMからの復号化よりも高品質なテキストを生成する。
- 参考スコア(独自算出の注目度): 153.35961722855686
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Likelihood, although useful as a training loss, is a poor search objective
for guiding open-ended generation from language models (LMs). Existing
generation algorithms must avoid both unlikely strings, which are incoherent,
and highly likely ones, which are short and repetitive. We propose contrastive
decoding (CD), a more reliable search objective that returns the difference
between likelihood under a large LM (called the expert, e.g. OPT-13b) and a
small LM (called the amateur, e.g. OPT-125m). CD is inspired by the fact that
the failures of larger LMs are even more prevalent in smaller LMs, and that
this difference signals exactly which texts should be preferred. CD requires
zero training, and produces higher quality text than decoding from the larger
LM alone. It also generalizes across model types (OPT and GPT2) and
significantly outperforms four strong decoding algorithms in automatic and
human evaluations.
- Abstract(参考訳): Likelihoodは、トレーニング損失として有用であるが、言語モデル(LM)からオープンエンドジェネレーションを導くための検索目標としては不十分である。
既存の生成アルゴリズムは、非一貫性の文字列と、短く反復的な文字列の両方を避ける必要がある。
我々は,大規模なLM(例えば,OPT-13b)と小さなLM(例えば,OPT-125m)との差を返却する,より信頼性の高い探索目的であるコントラストデコーディング(CD)を提案する。
CDは、より大きなLMの失敗がより小さいLMでさらに多いことや、この差がどのテキストを好むべきかを正確に示しているという事実に着想を得ている。
CDはゼロのトレーニングを必要とし、より大きなLMからの復号化よりも高品質なテキストを生成する。
また、モデルタイプ(OPTとGPT2)をまたいで一般化し、自動および人的評価において4つの強力な復号アルゴリズムを大幅に上回っている。
関連論文リスト
- Contrastive Decoding Improves Reasoning in Large Language Models [55.16503283583076]
コントラストデコーディングは,様々な推論タスクにおいて,グリージーデコーディングよりもアウト・オブ・ボックスの大幅な改善を実現することを示す。
本稿では,LLaMA-65BがHellaSwag Commonsense reasoning benchmark上でLLaMA 2, GPT-3.5, PaLM 2-Lより優れていることを示す。
論文 参考訳(メタデータ) (2023-09-17T00:29:32Z) - Towards Codable Watermarking for Injecting Multi-bit Information to LLM [90.13097900576113]
大規模言語モデル(LLM)は、流布とリアリズムを増大させるテキストを生成する。
LLMの悪用を防ぐために、テキストのソースを特定する必要性が高まっている。
テキスト透かし技術は、LLMによってテキストが生成されるかどうかを識別する上で信頼性があることが証明されている。
論文 参考訳(メタデータ) (2023-07-29T14:11:15Z) - Surfacing Biases in Large Language Models using Contrastive Input
Decoding [12.694066526722203]
コントラスト入力復号法(コントラスト入力復号法、Contrastive Input Decoding, CID)は、2つの入力を与えられたテキストを生成する復号アルゴリズムである。
CIDを使って、標準的なデコード戦略では検出が難しいコンテキスト固有のバイアスを強調します。
論文 参考訳(メタデータ) (2023-05-12T11:09:49Z) - Stealing the Decoding Algorithms of Language Models [56.369946232765656]
現代の言語モデル(LM)からテキストを生成する重要な要素は、復号アルゴリズムの選択とチューニングである。
本研究では,LMに典型的なAPIアクセスを持つ敵が,その復号アルゴリズムの型とハイパーパラメータを盗むことができることを示す。
我々の攻撃は、GPT-2、GPT-3、GPT-Neoなどのテキスト生成APIで使われる一般的なLMに対して効果的である。
論文 参考訳(メタデータ) (2023-03-08T17:15:58Z) - Factuality Enhanced Language Models for Open-Ended Text Generation [60.27166549575472]
我々は、LM世代の実測のためのFactalityPromptsテストセットとメトリクスを設計する。
より大きなLMはより小さなものよりも現実的であることが分かるが、以前の研究では、大きなLMは誤解の観点からは真実性が低いことを示唆している。
そこで本稿では,TopicPrefixを用いた事実認識と文完成のための実感強化学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-09T17:16:43Z) - Is Your Language Model Ready for Dense Representation Fine-tuning? [15.238322226336232]
本論文は, 微調整における高密度表現による知識の公開は, LMの即応性に起因していることを示す。
本稿では,変圧器lmsに基づく一般的な事前学習アーキテクチャであるコンデンサを提案する。
論文 参考訳(メタデータ) (2021-04-16T17:36:44Z) - Reflective Decoding: Beyond Unidirectional Generation with Off-the-Shelf
Language Models [63.808843089941405]
大規模な事前訓練された言語モデル(LM)は、顕著な品質のテキストを生成するが、左から右へ連続的にしか生成しない。
非順序タスクへの一方向LMの直接適用を可能にする新しい教師なしアルゴリズムであるReflective Decodingを提案する。
2段階のアプローチでは、監視もパラレルコーパスも必要ありません。
論文 参考訳(メタデータ) (2020-10-16T18:02:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。