論文の概要: Locating and Editing Factual Knowledge in GPT
- arxiv url: http://arxiv.org/abs/2202.05262v1
- Date: Thu, 10 Feb 2022 18:59:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-11 14:43:37.105155
- Title: Locating and Editing Factual Knowledge in GPT
- Title(参考訳): GPTにおけるファクチュアル知識の配置と編集
- Authors: Kevin Meng, David Bau, Alex Andonian, Yonatan Belinkov
- Abstract要約: 我々は,モデルの事実予測を変更可能なニューロン活性化を同定するための因果的介入を開発する。
大きなGPTスタイルのモデルでは、我々が仮定する2つの異なるニューロンの集合が抽象的な事実を知り、具体的な言葉を言うのと一致している。
この洞察は、モデル重みに格納された事実を編集する新しい方法であるROMEの開発を刺激する。
- 参考スコア(独自算出の注目度): 32.32335311998248
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate the mechanisms underlying factual knowledge recall in
autoregressive transformer language models. First, we develop a causal
intervention for identifying neuron activations capable of altering a model's
factual predictions. Within large GPT-style models, this reveals two distinct
sets of neurons that we hypothesize correspond to knowing an abstract fact and
saying a concrete word, respectively. This insight inspires the development of
ROME, a novel method for editing facts stored in model weights. For evaluation,
we assemble CounterFact, a dataset of over twenty thousand counterfactuals and
tools to facilitate sensitive measurements of knowledge editing. Using
CounterFact, we confirm the distinction between saying and knowing neurons, and
we find that ROME achieves state-of-the-art performance in knowledge editing
compared to other methods. An interactive demo notebook, full code
implementation, and the dataset are available at https://rome.baulab.info/.
- Abstract(参考訳): 自己回帰変換言語モデルにおける事実的知識リコールのメカニズムについて検討する。
まず,モデルの事実予測を変更可能なニューロン活性化を同定するための因果的介入を開発する。
大きなGPTスタイルのモデルでは、我々はそれぞれ抽象的な事実を知ることと具体的な言葉を言っていることを仮定する2つの異なるニューロンの集合を明らかにする。
この洞察は、モデル重みに格納された事実を編集する新しい方法であるROMEの開発を刺激する。
評価のために,2万以上の反事実とツールのデータセットであるCounterFactを組み立て,知識編集の感度測定を容易にする。
CounterFact を用いて、ニューロンの発音と認識の区別を確認し、ROME が知識編集において他の方法と比較して最先端の性能を達成できることを見出した。
インタラクティブなデモノートブック、完全なコード実装、データセットはhttps://rome.baulab.info/で入手できる。
関連論文リスト
- REVS: Unlearning Sensitive Information in Language Models via Rank Editing in the Vocabulary Space [35.61862064581971]
大規模言語モデル(LLM)は、トレーニングデータに見られる機密または個人識別可能な情報(PII)を不注意に記憶し、希釈するリスクがある。
LLMから未学習のセンシティブな情報を抽出する新しいモデル編集手法であるREVSを提案する。
論文 参考訳(メタデータ) (2024-06-13T17:02:32Z) - WISE: Rethinking the Knowledge Memory for Lifelong Model Editing of Large Language Models [78.22291694903659]
大規模言語モデル(LLM)は、成長を続ける世界の事実に適合し、幻覚的応答を修正するために知識更新を必要とする。
更新された知識が記憶にどこに存在するかは、モデル編集の基本的な問題である。
記憶のギャップを埋めるためにWISEを提案する。
論文 参考訳(メタデータ) (2024-05-23T16:35:52Z) - Detecting Edited Knowledge in Language Models [5.260519479124422]
知識編集手法(KEs)は、事前学習から学んだ言語モデルの古いまたは不正確な知識を更新することができる。
生成されたアウトプットが編集された知識に基づいているか、あるいは事前学習からのファーストハンド知識に基づいているかを知ることは、生成モデルに対するユーザの信頼を高めることができる。
本稿では,言語モデルにおける編集された知識を検出する新しい課題を提案する。
論文 参考訳(メタデータ) (2024-05-04T22:02:24Z) - Physics of Language Models: Part 3.3, Knowledge Capacity Scaling Laws [51.68385617116854]
スケーリング法則は、言語モデルのサイズと能力の関係を記述している。
我々は、ウィキペディアのページから(米国、首都ワシントンD.C.など)ドメインとして表される事実知識に焦点を当てる。
7Bモデルは、英語のウィキペディアと教科書を合わせた14Bビットの知識を保存できる。
論文 参考訳(メタデータ) (2024-04-08T11:11:31Z) - A Glitch in the Matrix? Locating and Detecting Language Model Grounding with Fakepedia [57.31074448586854]
大規模言語モデル(LLM)は、そのコンテキストで提供される新しい情報を引き出すという印象的な能力を持つ。
しかし、この文脈的基盤のメカニズムはいまだに不明である。
本稿では,Fakepedia を用いたグラウンドディング能力の研究手法を提案する。
論文 参考訳(メタデータ) (2023-12-04T17:35:42Z) - Fine-tuning Language Models for Factuality [96.5203774943198]
大規模な事前訓練型言語モデル(LLM)は、しばしば伝統的な検索エンジンの代替として、広く使われるようになった。
しかし、言語モデルは説得力のあるが事実的に不正確な主張をしがちである(しばしば「幻覚」と呼ばれる)。
本研究では,人間のラベル付けなしに,より現実的な言語モデルを微調整する。
論文 参考訳(メタデータ) (2023-11-14T18:59:15Z) - Can LMs Learn New Entities from Descriptions? Challenges in Propagating
Injected Knowledge [72.63368052592004]
我々は、注入された事実に基づいて推論を行う(またはそれらの事実を伝播する)LMの能力について研究する。
既存の知識更新手法では,注入知識の伝播がほとんどないことがわかった。
しかし、LMのコンテキストにおけるエンティティ定義の予測は、すべての設定におけるパフォーマンスを改善する。
論文 参考訳(メタデータ) (2023-05-02T17:59:46Z) - Explainable Verbal Deception Detection using Transformers [1.5104201344012347]
本稿では,BERT(およびRoBERTa),マルチヘッドアテンション,コアテンション,トランスフォーマーの組み合わせを含む6つのディープラーニングモデルを提案し,評価する。
この結果から,我々のトランスを用いたモデルでは,自動偽造検出性能(精度+2.11%)が向上することが示唆された。
論文 参考訳(メタデータ) (2022-10-06T17:36:00Z) - Editing Factual Knowledge in Language Models [51.947280241185]
本稿では,この知識を編集する手法であるKnowledgeEditorを提案する。
knowledgeeditorは計算効率が高いだけでなく、lm事前トレーニングの修正も必要としない。
2つの一般的なアーキテクチャと知識集約型タスクで、KnowledgeEditorの有効性を示します。
論文 参考訳(メタデータ) (2021-04-16T15:24:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。