論文の概要: A Glitch in the Matrix? Locating and Detecting Language Model Grounding
with Fakepedia
- arxiv url: http://arxiv.org/abs/2312.02073v2
- Date: Tue, 20 Feb 2024 17:27:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 20:00:59.749831
- Title: A Glitch in the Matrix? Locating and Detecting Language Model Grounding
with Fakepedia
- Title(参考訳): マトリックスの不具合?
Fakepediaによる言語モデルの座位と検出
- Authors: Giovanni Monea, Maxime Peyrard, Martin Josifoski, Vishrav Chaudhary,
Jason Eisner, Emre K{\i}c{\i}man, Hamid Palangi, Barun Patra, Robert West
- Abstract要約: 大規模言語モデル(LLM)は、そのコンテキストで提供される新しい情報を引き出すという印象的な能力を持つ。
しかし、この文脈的基盤のメカニズムはいまだに不明である。
本稿では,Fakepedia を用いたグラウンドディング能力の研究手法を提案する。
- 参考スコア(独自算出の注目度): 68.00056517461402
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have an impressive ability to draw on novel
information supplied in their context. Yet the mechanisms underlying this
contextual grounding remain unknown, especially in situations where contextual
information contradicts factual knowledge stored in the parameters, which LLMs
also excel at recalling. Favoring the contextual information is critical for
retrieval-augmented generation methods, which enrich the context with
up-to-date information, hoping that grounding can rectify outdated or noisy
stored knowledge. We present a novel method to study grounding abilities using
Fakepedia, a dataset of counterfactual texts constructed to clash with a
model's internal parametric knowledge. We benchmark various LLMs with Fakepedia
and then we conduct a causal mediation analysis, based on our Masked Grouped
Causal Tracing (MGCT), on LLM components when answering Fakepedia queries.
Within this analysis, we identify distinct computational patterns between
grounded and ungrounded responses. We finally demonstrate that distinguishing
grounded from ungrounded responses is achievable through computational analysis
alone. Our results, together with existing findings about factual recall
mechanisms, provide a coherent narrative of how grounding and factual recall
mechanisms interact within LLMs.
- Abstract(参考訳): 大きな言語モデル(LLM)は、そのコンテキストで提供される新しい情報を引き出すことができる。
しかし、この文脈的基盤のメカニズムは、特に文脈的情報がパラメータに格納されている事実的知識と矛盾する状況において、まだ不明である。
検索強化された生成手法では、コンテキストを最新の情報で豊かにすることで、グラウンドディングが古い記憶された知識を正したり、うるさいものにしたりすることを期待する。
本稿では,モデルの内部パラメトリック知識と衝突するように構築された反事実テキストのデータセットである fakepedia を用いて,接地能力を研究する新しい手法を提案する。
Fakepedia で様々な LLM をベンチマークし,Fakepedia クエリに応答する際の LLM コンポーネント上で Masked Grouped Causal Tracing (MGCT) に基づく因果媒介分析を行った。
本分析では,接地応答と接地応答の異なる計算パターンを同定する。
最後に, 地下応答と接地応答の区別は, 計算解析のみで達成可能であることを示す。
本研究は,事実リコール機構に関する既往の知見とともに,llm内におけるグルーディングと事実リコール機構の相互作用に関するコヒーレントな物語を提供する。
関連論文リスト
- Enhancing Contextual Understanding in Large Language Models through Contrastive Decoding [9.2433070542025]
大規模言語モデル(LLM)は、テキスト生成時に入力コンテキストを不適切に統合する傾向がある。
本稿では, 逆無関係なパスを負のサンプルとして, コントラストデコーディングを統合する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-04T20:38:41Z) - Studying Large Language Model Behaviors Under Context-Memory Conflicts With Real Documents [54.953320616069654]
Retrieval-augmented Generationは、完全なパラメトリック言語モデルの多くの問題を緩和する。
RAGでは、コンテキストで提供される文書からモデルの知識を更新することができる。
本稿では,そのような知識紛争を現実的に研究するための枠組みを提案する。
論文 参考訳(メタデータ) (2024-04-24T17:59:36Z) - LLMs' Reading Comprehension Is Affected by Parametric Knowledge and Struggles with Hypothetical Statements [59.71218039095155]
言語モデルの自然言語理解(NLU)能力を評価するための主要な手段として、読解理解(RC)があげられる。
文脈がモデルの内部知識と一致している場合、モデルの回答がコンテキスト理解に由来するのか、あるいは内部情報から生じるのかを識別することは困難である。
この問題に対処するために、架空の事実や実体に基づいて、想像上のデータにRCを使うことを提案する。
論文 参考訳(メタデータ) (2024-04-09T13:08:56Z) - Robust and Scalable Model Editing for Large Language Models [75.95623066605259]
LLM編集のスケーラビリティと堅牢性を向上させるため,EREN(Reading Notesによる編集モデル)を提案する。
既存の技術とは異なり、複数の編集から知識を統合することができ、構文的に類似しているが意味的に無関係な入力に正しく反応する。
論文 参考訳(メタデータ) (2024-03-26T06:57:23Z) - Where is the answer? Investigating Positional Bias in Language Model Knowledge Extraction [36.40833517478628]
大規模な言語モデルでは、更新を最新状態に保つか、あるいは新しいドメインに適応する必要がある。
1つの鍵は、記憶された情報がクエリプロンプトで抽出可能な方法で最新の情報を記憶することである。
微調整中に文書の難易度を最小化しているにもかかわらず、LLMはプロンプト文を通して情報を取り出すのに苦労している。
論文 参考訳(メタデータ) (2024-02-16T06:29:16Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - Can LMs Learn New Entities from Descriptions? Challenges in Propagating
Injected Knowledge [72.63368052592004]
我々は、注入された事実に基づいて推論を行う(またはそれらの事実を伝播する)LMの能力について研究する。
既存の知識更新手法では,注入知識の伝播がほとんどないことがわかった。
しかし、LMのコンテキストにおけるエンティティ定義の予測は、すべての設定におけるパフォーマンスを改善する。
論文 参考訳(メタデータ) (2023-05-02T17:59:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。