論文の概要: Relational Linearity is a Predictor of Hallucinations
- arxiv url: http://arxiv.org/abs/2601.11429v1
- Date: Fri, 16 Jan 2026 16:47:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-19 20:21:50.569861
- Title: Relational Linearity is a Predictor of Hallucinations
- Title(参考訳): リレーショナルリニアリティは幻覚の予測因子である
- Authors: Yuetian Lu, Yihong Liu, Hinrich Schütze,
- Abstract要約: Gemma-7B-ITのような中規模のモデルでは、幻覚が知識の一部ではないことを認識するのが困難である。
関係線型性と幻覚率の間に強い相関関係が見られ、関係の3重項の基本的な保存が、モデルがその知識をいかにうまく自己評価できるかの要因であるという我々の仮説の証拠となる。
- 参考スコア(独自算出の注目度): 47.44133672489574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hallucination is a central failure mode in large language models (LLMs). We focus on hallucinations of answers to questions like: "Which instrument did Glenn Gould play?", but we ask these questions for synthetic entities that are unknown to the model. Surprisingly, we find that medium-size models like Gemma-7B-IT frequently hallucinate, i.e., they have difficulty recognizing that the hallucinated fact is not part of their knowledge. We hypothesize that an important factor in causing these hallucinations is the linearity of the relation: linear relations tend to be stored more abstractly, making it difficult for the LLM to assess its knowledge; the facts of nonlinear relations tend to be stored more directly, making knowledge assessment easier. To investigate this hypothesis, we create SyntHal, a dataset of 6000 synthetic entities for six relations. In our experiments with four models, we determine, for each relation, the hallucination rate on SyntHal and also measure its linearity, using $Δ\cos$. We find a strong correlation ($r \in [.78,.82]$) between relational linearity and hallucination rate, providing evidence for our hypothesis that the underlying storage of triples of a relation is a factor in how well a model can self-assess its knowledge. This finding has implications for how to manage hallucination behavior and suggests new research directions for improving the representation of factual knowledge in LLMs.
- Abstract(参考訳): 幻覚は、大きな言語モデル(LLM)における中心的な障害モードである。
我々は,「グレングールドが演奏した楽器は何処にあるのか?」といった質問に対する回答の幻覚に焦点を当てるが,モデルに未知の合成実体について質問する。
驚いたことに、Gemma-7B-ITのような中規模のモデルはしばしば幻覚を呈している。
線形関係はより抽象的に保存されやすく、LLMがその知識を評価するのが困難である; 非線形関係の事実はより直接的に保存され、知識評価がより容易になる。
この仮説を解明するために、6000個の合成エンティティのデータセットであるSyntHalを6つの関係で作成する。
4つのモデルを用いた実験では、それぞれの関係について、SyntHal上の幻覚率を決定し、さらに$Δ\cos$を用いてその線型性を測定する。
我々は、関係線型性と幻覚率の間に強い相関関係(r \in [.78,.82]$)を見出した。
この発見は、幻覚行動の管理方法に影響を及ぼし、LLMにおける事実知識の表現を改善するための新たな研究方向を提案する。
関連論文リスト
- HACK: Hallucinations Along Certainty and Knowledge Axes [66.66625343090743]
本稿では,2つの軸に沿って幻覚を分類する枠組みを提案する。
内部的に正しい知識を持っているにもかかわらず、モデルが確実に幻覚する幻覚のサブセットを特に特定する。
論文 参考訳(メタデータ) (2025-10-28T09:34:31Z) - The Law of Knowledge Overshadowing: Towards Understanding, Predicting, and Preventing LLM Hallucination [85.18584652829799]
本稿では,知識のシェードイングをモデル化することで,事実の幻覚を定量化する新しい枠組みを提案する。
オーバシャドウ(27.9%)、MemoTrap(13.1%)、NQ-Swap(18.3%)のモデル事実性を顕著に向上させる。
論文 参考訳(メタデータ) (2025-02-22T08:36:06Z) - Trust Me, I'm Wrong: LLMs Hallucinate with Certainty Despite Knowing the Answer [51.7407540261676]
本研究では,モデルが常に正しい解答を行うことのできる幻覚の別のタイプについて検討するが,一見自明な摂動は,高い確実性で幻覚応答を生じさせる。
この現象は特に医学や法学などの高度な領域において、モデルの確実性はしばしば信頼性の代用として使用される。
CHOKEの例は、プロンプト間で一貫性があり、異なるモデルやデータセットで発生し、他の幻覚と根本的に異なることを示す。
論文 参考訳(メタデータ) (2025-02-18T15:46:31Z) - On Large Language Models' Hallucination with Regard to Known Facts [74.96789694959894]
大規模な言語モデルはファクトイドの質問に答えることに成功したが、幻覚を起こす傾向がある。
正しい解答知識を持つLLMの現象を推論力学の観点から検討する。
我々の研究は、LLMの幻覚が既知の事実について、そしてより重要なのは、幻覚を正確に予測する理由を理解することに光を当てた。
論文 参考訳(メタデータ) (2024-03-29T06:48:30Z) - On Early Detection of Hallucinations in Factual Question Answering [4.76359068115052]
幻覚は依然として ユーザーの信頼を得るための大きな障害です
本研究では、モデル生成に関連するアーティファクトが、生成が幻覚を含むことを示すヒントを提供することができるかどうかを探索する。
以上の結果から,これらのアーティファクトの分布は,ハロゲン化世代と非ハロゲン化世代の違いが示唆された。
論文 参考訳(メタデータ) (2023-12-19T14:35:04Z) - On the Origin of Hallucinations in Conversational Models: Is it the
Datasets or the Models? [32.41234580068662]
既存の知識基盤型対話型ベンチマークといくつかの最先端モデルについて検討する。
標準ベンチマークは60%以上の幻覚応答で構成されており、幻覚だけでなく幻覚を増幅するモデルにつながっている。
この結果から,既存のデータセットやモデルの品質に関する重要な疑問が浮かび上がっている。
論文 参考訳(メタデータ) (2022-04-17T05:15:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。