論文の概要: Self-consistency for open-ended generations
- arxiv url: http://arxiv.org/abs/2307.06857v1
- Date: Tue, 11 Jul 2023 17:51:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-14 14:10:00.656596
- Title: Self-consistency for open-ended generations
- Title(参考訳): 開放型世代における自己一貫性
- Authors: Siddhartha Jain, Xiaofei Ma, Anoop Deoras, Bing Xiang
- Abstract要約: 本稿では,大規模事前学習型言語モデルから生成した出力の品質と一貫性を改善するための新しい手法を提案する。
自己整合性(Self-Consistency)は、解答に対する効果的なアプローチとして現れ、最多得票数で解答を選択する。
- 参考スコア(独自算出の注目度): 15.667070015529585
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In this paper, we present a novel approach for improving the quality and
consistency of generated outputs from large-scale pre-trained language models
(LLMs). Self-consistency has emerged as an effective approach for prompts with
fixed answers, selecting the answer with the highest number of votes. In this
paper, we introduce a generalized framework for self-consistency that extends
its applicability beyond problems that have fixed-answer answers. Through
extensive simulations, we demonstrate that our approach consistently recovers
the optimal or near-optimal generation from a set of candidates. We also
propose lightweight parameter-free similarity functions that show significant
and consistent improvements across code generation, autoformalization, and
summarization tasks, even without access to token log probabilities. Our method
incurs minimal computational overhead, requiring no auxiliary reranker models
or modifications to the existing model.
- Abstract(参考訳): 本稿では,大規模事前学習言語モデル(LLM)から生成した出力の品質と一貫性を改善するための新しい手法を提案する。
自己一貫性は、固定された回答を持つプロンプトに対して効果的なアプローチとして現れ、最も投票数の多い回答を選択する。
本稿では,固定解答を持つ問題を超えてその適用性を拡張する自己一貫性のための一般化フレームワークを提案する。
広範なシミュレーションにより,提案手法は候補群から最適あるいは至近の最適生成を一貫して回復することを示す。
また、トークンログの確率がなくても、コード生成、オートフォーマライゼーション、要約タスク間で顕著で一貫した改善を示す軽量なパラメータフリー類似関数を提案する。
提案手法は最小の計算オーバーヘッドを伴い,補助的なリランクモデルや既存モデルへの修正を必要としない。
関連論文リスト
- Improving Autoregressive Visual Generation with Cluster-Oriented Token Prediction [52.09472099976885]
IARは改良された自己回帰型ビジュアルジェネレーション手法である。
バランスの取れたk平均クラスタリングアルゴリズムを用いたCodebook Rearrangement戦略を提案する。
また,クラスタ指向のクロスエントロピーロスを提案し,トークンの所在するクラスタを正確に予測する。
論文 参考訳(メタデータ) (2025-01-01T15:58:51Z) - Self-Improvement in Language Models: The Sharpening Mechanism [70.9248553790022]
我々は、レンズを通して自己改善の能力について、新たな視点を提供する。
言語モデルは、正しい応答を生成する場合よりも、応答品質の検証が優れているという観察に感銘を受けて、後学習において、モデル自体を検証対象として、自己改善を形式化する。
SFTとRLHFに基づく自己改善アルゴリズムの2つの自然ファミリーを解析する。
論文 参考訳(メタデータ) (2024-12-02T20:24:17Z) - PEDAL: Enhancing Greedy Decoding with Large Language Models using Diverse Exemplars [1.450405446885067]
多様な推論経路を持つ自己認識技術は、大言語モデル(LLM)を用いたテキスト生成において顕著な性能向上を示した。
PEDALは,多種多様な模範的プロンプトの強みとLLMに基づくアグリゲーションを組み合わせて,総合的な性能向上を実現するハイブリッドな自己組織化手法である。
論文 参考訳(メタデータ) (2024-08-16T17:54:09Z) - One Token Can Help! Learning Scalable and Pluggable Virtual Tokens for Retrieval-Augmented Large Language Models [67.49462724595445]
Retrieval-augmented Generation (RAG)は、大規模言語モデル(LLM)を改善するための有望な方法である。
本稿では,RAGのためのスケーラブルでプラガブルな仮想トークンを学習する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-30T03:44:54Z) - Evolutionary Optimization of Model Merging Recipes [21.41838972039297]
大規模言語モデル (LLM) はますます能力が高まっているが、その開発にはかなりの計算資源を必要とすることが多い。
本稿では,様々なオープンソースモデルの効果的な組み合わせを自動的に発見することで,この制限を克服する進化的アプローチを提案する。
この作業は、新しい最先端のモデルをオープンソースコミュニティにコントリビュートするだけでなく、自動化されたモデル構成のための新しいパラダイムも導入します。
論文 参考訳(メタデータ) (2024-03-19T22:56:53Z) - Retrieval is Accurate Generation [99.24267226311157]
本稿では,支援文書の集合からコンテキスト認識句を選択する新しい手法を提案する。
本モデルでは,検索対象のベースラインの中で,最高の性能と低レイテンシを実現する。
論文 参考訳(メタデータ) (2024-02-27T14:16:19Z) - Improving Non-autoregressive Generation with Mixup Training [51.61038444990301]
本稿では,事前学習したトランスモデルに基づく非自己回帰生成モデルを提案する。
我々はMIxソースと擬似ターゲットという,シンプルで効果的な反復訓練手法を提案する。
質問生成,要約,パラフレーズ生成を含む3つの世代ベンチマーク実験により,提案手法が新たな最先端結果を実現することを示す。
論文 参考訳(メタデータ) (2021-10-21T13:04:21Z) - Text Generation with Efficient (Soft) Q-Learning [91.47743595382758]
強化学習(RL)は、任意のタスクメトリクスを報酬としてプラグインすることで、より柔軟なソリューションを提供する。
ソフトQ-ラーニングの観点からテキスト生成のための新しいRL式を導入する。
雑音/負の例から学習し、敵攻撃、即時生成など、幅広いタスクにアプローチを適用する。
論文 参考訳(メタデータ) (2021-06-14T18:48:40Z) - Text Generation by Learning from Demonstrations [17.549815256968877]
テキスト生成への現在のアプローチは、主に自己回帰モデルと最大推定に依存する。
本稿では,重要な重み付けによって専門家によるデモンストレーションから学習する,最適化の容易なアルゴリズムGOLDを提案する。
自動評価と人的評価の両方で、GOLDでトレーニングされたモデルは、MLEとポリシー勾配によってトレーニングされたモデルよりも優れています。
論文 参考訳(メタデータ) (2020-09-16T17:58:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。