論文の概要: Physics of Language Models: Part 3.1, Knowledge Storage and Extraction
- arxiv url: http://arxiv.org/abs/2309.14316v2
- Date: Tue, 26 Dec 2023 12:00:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 21:55:14.626742
- Title: Physics of Language Models: Part 3.1, Knowledge Storage and Extraction
- Title(参考訳): 言語モデルの物理:その3.1,知識の蓄積と抽出
- Authors: Zeyuan Allen-Zhu and Yuanzhi Li
- Abstract要約: 大規模言語モデル(LLM)は膨大な量の世界の知識を格納することができ、しばしば質問応答によって抽出できる。
モデルが知識を抽出する能力と,トレーニングデータの多様な多様性尺度との間には,強い相関関係が認められた。
- 参考スコア(独自算出の注目度): 61.05762942335984
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) can store a vast amount of world knowledge,
often extractable via question-answering (e.g., "What is Abraham Lincoln's
birthday?"). However, do they answer such questions based on exposure to
similar questions during training (i.e., cheating), or by genuinely learning to
extract knowledge from sources like Wikipedia?
In this paper, we investigate this issue using a controlled biography
dataset. We find a strong correlation between the model's ability to extract
knowledge and various diversity measures of the training data.
$\textbf{Essentially}$, for knowledge to be reliably extracted, it must be
sufficiently augmented (e.g., through paraphrasing, sentence shuffling)
$\textit{during pretraining}$. Without such augmentation, knowledge may be
memorized but not extractable, leading to 0% accuracy, regardless of subsequent
instruction fine-tuning.
To understand why this occurs, we employ (nearly) linear probing to
demonstrate a strong connection between the observed correlation and how the
model internally encodes knowledge -- whether it is linearly encoded in the
hidden embeddings of entity names or distributed across other token embeddings
in the training text.
This paper provides $\textbf{several key recommendations for LLM pretraining
in the industry}$: (1) rewrite the pretraining data -- using small, auxiliary
models -- to provide knowledge augmentation, and (2) incorporate more
instruction-finetuning data into the pretraining stage before it becomes too
late.
- Abstract(参考訳): 大規模言語モデル(LLM)は膨大な量の世界の知識を格納することができ、しばしば質問回答によって抽出できる(例:エイブラハム・リンカーンの誕生日は?
しかし、トレーニング中(すなわち不正行為)に類似した質問への露出に基づいて、あるいはwikipediaのような情報源から知識を抽出するために真に学習することで、そのような質問に答えるだろうか?
本稿では,本課題を自伝データセットを用いて検討する。
モデルの知識抽出能力とトレーニングデータの多様性尺度との間には,強い相関関係がみられた。
$\textbf{essentially}$, 知識が確実に抽出されるためには、十分に拡張されなければならない(例えば、パラフレージング、文のシャッフル)$\textit{during pretraining}$. である。
このような拡張がなければ、知識は記憶されるが抽出できないため、その後の命令の微調整に関わらず、精度は0%になる。
To understand why this occurs, we employ (nearly) linear probing to demonstrate a strong connection between the observed correlation and how the model internally encodes knowledge -- whether it is linearly encoded in the hidden embeddings of entity names or distributed across other token embeddings in the training text. This paper provides $\textbf{several key recommendations for LLM pretraining in the industry}$: (1) rewrite the pretraining data -- using small, auxiliary models -- to provide knowledge augmentation, and (2) incorporate more instruction-finetuning data into the pretraining stage before it becomes too late.
関連論文リスト
- Enhancing Contextual Understanding in Large Language Models through Contrastive Decoding [9.2433070542025]
大規模言語モデル(LLM)は、テキスト生成時に入力コンテキストを不適切に統合する傾向がある。
本稿では, 逆無関係なパスを負のサンプルとして, コントラストデコーディングを統合する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-04T20:38:41Z) - Physics of Language Models: Part 3.3, Knowledge Capacity Scaling Laws [51.68385617116854]
スケーリング法則は、言語モデルのサイズと能力の関係を記述している。
我々は、ウィキペディアのページから(米国、首都ワシントンD.C.など)ドメインとして表される事実知識に焦点を当てる。
7Bモデルは、英語のウィキペディアと教科書を合わせた14Bビットの知識を保存できる。
論文 参考訳(メタデータ) (2024-04-08T11:11:31Z) - Source-Aware Training Enables Knowledge Attribution in Language Models [81.13048060332775]
固有のソースの引用は透明性、解釈可能性、検証可能性を高めることができる。
我々のトレーニングレシピは、モデルの難易度に大きな影響を与えることなく、事前学習データへの忠実な帰属を可能にする。
論文 参考訳(メタデータ) (2024-04-01T09:39:38Z) - Robust and Scalable Model Editing for Large Language Models [75.95623066605259]
LLM編集のスケーラビリティと堅牢性を向上させるため,EREN(Reading Notesによる編集モデル)を提案する。
既存の技術とは異なり、複数の編集から知識を統合することができ、構文的に類似しているが意味的に無関係な入力に正しく反応する。
論文 参考訳(メタデータ) (2024-03-26T06:57:23Z) - Decouple knowledge from parameters for plug-and-play language modeling [77.5601135412186]
差別化可能なプラグインメモリ(DPM)を備えた事前学習モデルPlugLMを導入する。
鍵となる直感は、編集可能でスケーラブルなキーバリューメモリで、知識ストレージをモデルパラメータから切り離すことである。
PlugLMは4つのドメインで平均3.95のF1改善を実現している。
論文 参考訳(メタデータ) (2023-05-19T10:01:55Z) - RECKONING: Reasoning through Dynamic Knowledge Encoding [51.076603338764706]
言語モデルは、文脈の一部として提供される知識について推論することで、質問に答えることができることを示す。
これらの状況では、モデルは質問に答えるために必要な知識を区別することができない。
我々は、与えられた文脈知識をモデルのパラメータに折り畳み、より堅牢に推論するようにモデルに教えることを提案する。
論文 参考訳(メタデータ) (2023-05-10T17:54:51Z) - Zero-shot Commonsense Question Answering with Cloze Translation and
Consistency Optimization [20.14487209460865]
自然質問をクローズスタイルの文に翻訳できる4つの翻訳手法について検討する。
提案手法は知識ベース改良モデルと相補的なデータセットであり,それらを組み合わせることで,最先端のゼロショット性能を実現することができることを示す。
論文 参考訳(メタデータ) (2022-01-01T07:12:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。