論文の概要: Collaborative decoding of critical tokens for boosting factuality of
large language models
- arxiv url: http://arxiv.org/abs/2402.17982v1
- Date: Wed, 28 Feb 2024 01:53:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 16:46:57.747454
- Title: Collaborative decoding of critical tokens for boosting factuality of
large language models
- Title(参考訳): 大規模言語モデルの事実性向上のための重要トークンの協調復号化
- Authors: Lifeng Jin, Baolin Peng, Linfeng Song, Haitao Mi, Ye Tian and Dong Yu
- Abstract要約: 微調整および整列モデルでは、命令追従と安全な生成の能力が改善されている。
世代ごとのサンプリングの一般的な実践は、幻覚の確率を増大させる。
我々は、クリティカルトークンの概念を通じて、事前訓練されたモデル内の高い事実性を活用するための協調的復号化フレームワークを導入する。
- 参考スコア(独自算出の注目度): 57.504894664689
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The most common training pipeline for large language models includes
pretraining, finetuning and aligning phases, with their respective resulting
models, such as the pretrained model and the finetuned model. Finetuned and
aligned models show improved abilities of instruction following and safe
generation, however their abilities to stay factual about the world are
impacted by the finetuning process. Furthermore, the common practice of using
sampling during generation also increases chances of hallucination. In this
work, we introduce a collaborative decoding framework to harness the high
factuality within pretrained models through the concept of critical tokens. We
first design a critical token classifier to decide which model to use for the
next token, and subsequently generates the next token using different decoding
strategies. Experiments with different models and datasets show that our
decoding framework is able to reduce model hallucination significantly,
showcasing the importance of the collaborative decoding framework.
- Abstract(参考訳): 大規模言語モデルの最も一般的なトレーニングパイプラインは、事前訓練、微調整、調整フェーズであり、事前訓練されたモデルや微調整されたモデルのようなそれぞれのモデルである。
ファインチューニングモデルとアライメントモデルでは、命令追従と安全生成の能力が向上しているが、世界に関する事実を保ち続ける能力は、ファインチューニングプロセスによって影響を受ける。
さらに、世代間サンプリングの一般的な実践は幻覚の可能性を増大させる。
本研究では,クリティカルトークンの概念を通じて,事前学習モデル内の高事実性を活用するための協調的復号化フレームワークを提案する。
まず,次のトークンに使用するモデルを決定するために重要なトークン分類器を設計し,その後,異なる復号戦略を用いて次のトークンを生成する。
異なるモデルとデータセットを用いた実験は、我々のデコーディングフレームワークがモデル幻覚を著しく低減することができ、協調デコーディングフレームワークの重要性を示している。
関連論文リスト
- Code Pretraining Improves Entity Tracking Abilities of Language Models [20.6768931196215]
大量のコードでトレーニングされたモデルがベースモデルより優れているという明確な証拠が得られます。
一方、様々なモデルファミリをまたいだ算術訓練やアライメントチューニングの相反する利点は見つからない。
論文 参考訳(メタデータ) (2024-05-31T17:56:33Z) - Code Representation Learning At Scale [75.04686476303436]
2段階の事前学習スキームを用いて,大量のコードデータを用いてコード表現学習を行う。
まず、マスキング言語モデリングにおけるランダム性と、プログラミング言語の構造的側面の両方を活用して、エンコーダを訓練する。
そして、教師なしの方法で強陰性かつ強正に構築された対照的な学習を通して表現を強化する。
論文 参考訳(メタデータ) (2024-02-02T22:19:15Z) - Expedited Training of Visual Conditioned Language Generation via
Redundancy Reduction [61.16125290912494]
$textEVL_textGen$は、視覚条件付き言語生成モデルの事前トレーニング用に設計されたフレームワークである。
提案手法は,視覚言語モデルの学習を5倍に加速させるが,全体的な性能に顕著な影響を与えないことを示す。
論文 参考訳(メタデータ) (2023-10-05T03:40:06Z) - What is the best recipe for character-level encoder-only modelling? [2.792030485253753]
本稿では,文字レベルで文脈化された表現を出力する言語理解モデルの最近の進歩をベンチマークすることを目的とする。
我々は,同一データ上で同じ設定でトレーニングされたトークンベースのモデルの性能より,最も優れたキャラクタレベルのモデルの方が優れていることを発見した。
本稿は,多言語表現のための文字レベルモデルの即興性を実証し,NLP実践者がトークンベースモデルのドロップイン代替として試すことを推奨するものである。
論文 参考訳(メタデータ) (2023-05-09T14:00:15Z) - A Multi-dimensional Evaluation of Tokenizer-free Multilingual Pretrained
Models [87.7086269902562]
サブワードベースのモデルは、多くの設定において依然として最も実用的な選択肢であることを示している。
我々は,新しいモデルを設計し,評価する際のこれらの要因を検討するために,トークンフリーな手法の今後の取り組みを奨励する。
論文 参考訳(メタデータ) (2022-10-13T15:47:09Z) - Language Models are General-Purpose Interfaces [109.45478241369655]
本稿では,様々な基礎モデルに対する汎用インタフェースとして言語モデルを提案する。
事前訓練されたエンコーダのコレクションは、様々なモダリティ(ビジョンや言語など)を知覚する
インタフェースとモジュールエンコーダを協調的に事前学習するための半因果言語モデリング手法を提案する。
論文 参考訳(メタデータ) (2022-06-13T17:34:22Z) - What Language Model Architecture and Pretraining Objective Work Best for
Zero-Shot Generalization? [50.84738303888189]
本稿では,モデル選択の大規模評価とそのゼロショット一般化への影響について述べる。
私たちは、70億以上のトークンに対して、50億以上のパラメータを持つモデルをトレーニングします。
事前学習した因果デコーダモデルを非因果デコーダモデルに効率的に適用できることが判明した。
論文 参考訳(メタデータ) (2022-04-12T14:19:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。