論文の概要: Beyond Hallucinations: The Illusion of Understanding in Large Language Models
- arxiv url: http://arxiv.org/abs/2510.14665v1
- Date: Thu, 16 Oct 2025 13:19:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.86988
- Title: Beyond Hallucinations: The Illusion of Understanding in Large Language Models
- Title(参考訳): 幻覚を超えて - 大規模言語モデルにおける理解のイライラ
- Authors: Rikard Rosenbacke, Carl Rosenbacke, Victor Rosenbacke, Martin McKee,
- Abstract要約: 大規模言語モデル(LLM)は、人間のコミュニケーションや意思決定に深く浸透している。
彼らはあいまいさ、偏見、言語自体に固有の真理への直接アクセスの欠如を継承する。
本稿は,LLMがシステム1認知を大規模に運用する,高速,連想的,説得的だが,反射やファルシフィケーションは行わない,と論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large language models (LLMs) are becoming deeply embedded in human communication and decision-making, yet they inherit the ambiguity, bias, and lack of direct access to truth inherent in language itself. While their outputs are fluent, emotionally resonant, and coherent, they are generated through statistical prediction rather than grounded reasoning. This creates the risk of hallucination, responses that sound convincing but lack factual validity. Building on Geoffrey Hinton's observation that AI mirrors human intuition rather than reasoning, this paper argues that LLMs operationalize System 1 cognition at scale: fast, associative, and persuasive, but without reflection or falsification. To address this, we introduce the Rose-Frame, a three-dimensional framework for diagnosing cognitive and epistemic drift in human-AI interaction. The three axes are: (i) Map vs. Territory, which distinguishes representations of reality (epistemology) from reality itself (ontology); (ii) Intuition vs. Reason, drawing on dual-process theory to separate fast, emotional judgments from slow, reflective thinking; and (iii) Conflict vs. Confirmation, which examines whether ideas are critically tested through disagreement or simply reinforced through mutual validation. Each dimension captures a distinct failure mode, and their combination amplifies misalignment. Rose-Frame does not attempt to fix LLMs with more data or rules. Instead, it offers a reflective tool that makes both the model's limitations and the user's assumptions visible, enabling more transparent and critically aware AI deployment. It reframes alignment as cognitive governance: intuition, whether human or artificial, must remain governed by human reason. Only by embedding reflective, falsifiable oversight can we align machine fluency with human understanding.
- Abstract(参考訳): 大規模言語モデル(LLM)は人間のコミュニケーションや意思決定に深く浸透しているが、言語自体に固有の曖昧さ、偏見、真理への直接アクセスの欠如を継承している。
出力は流動的で、感情的に共鳴し、コヒーレントであるが、根拠付き推論ではなく統計的予測によって生成される。
これは幻覚のリスクを生じさせ、納得できるように聞こえるが、事実の妥当性を欠いている。
ジェフリー・ヒントン(Geoffrey Hinton)による、AIは推論よりも人間の直観を反映しているという観察に基づいて、この論文はLLMがシステム1の認知を大規模に運用している、と論じている。
これを解決するために,人間とAIの相互作用における認知とてんかんの漂流を診断するための3次元フレームワークであるRose-Frameを紹介した。
3つの軸は次のとおりである。
一 現実の表象(歴史学)と現実そのもの(オントロジー)を区別する地図対領域
(二)直観 vs. レーソン、二過程論を引いて、ゆっくりとした反射的思考から高速で感情的な判断を分離すること。
三 意見の相違により思想が批判的に検証されているか、又は相互の検証により単に補強されているかを検証する紛争対確認
各次元は異なる障害モードをキャプチャし、それらの組み合わせはミスアライメントを増幅する。
Rose-Frame は LLM を多くのデータやルールで修正しようとはしない。
その代わり、モデルの制限とユーザの仮定の両方を可視化し、より透明で批判的に認識されたAIデプロイメントを可能にする反射ツールを提供する。
人間であれ人工であれ、直観は人間的な理由によって支配されなければならない。
リフレクティブを埋め込むだけで、偽造可能な監視はマシンの流線型と人間の理解を一致させることができる。
関連論文リスト
- Distributional Semantics Tracing: A Framework for Explaining Hallucinations in Large Language Models [4.946483489399819]
大規模言語モデル(LLM)は、事実的に誤った文を生成する幻覚の傾向にある。
この研究は、3つの主要な貢献を通じて、この障害モードの本質的、アーキテクチャ的起源について調査する。
論文 参考訳(メタデータ) (2025-10-07T16:40:31Z) - Seeing Before Reasoning: A Unified Framework for Generalizable and Explainable Fake Image Detection [58.82268659497348]
この失敗の根源は、根本的なミスマッチにある、と私たちは主張する。
本稿では,偽画像検出のための汎用的で説明可能な,会話型アシスタントであるForensic-Chatを提案する。
論文 参考訳(メタデータ) (2025-09-29T20:59:19Z) - How Large Language Models are Designed to Hallucinate [0.42970700836450487]
幻覚はトランスフォーマーアーキテクチャの構造的な結果であると主張する。
本研究の貢献は,(1) 既存の説明が不十分な理由を示す比較説明,(2) 提案されたベンチマークによる実存的構造に関連付けられた幻覚の予測分類,(3) 開示の欠如を抑えることの可能な「真理に制約された」アーキテクチャへの設計方針,の3つである。
論文 参考訳(メタデータ) (2025-09-19T16:46:27Z) - On the Fundamental Impossibility of Hallucination Control in Large Language Models [0.0]
不合理性理論:非自明な知識集約を行うLLMは、真理的な知識表現、意味情報保存、関連する知識の啓示を同時に達成できない。
提案手法は,アイデアのオークションとして推論をモデル化し,分散コンポーネントが符号化された知識を用いて応答に影響を与えることを証明している。
幻覚と想像力は数学的に同一であり、どちらも4つの重要な性質のうちの少なくとも1つに反する。
論文 参考訳(メタデータ) (2025-06-04T23:28:39Z) - Are Reasoning Models More Prone to Hallucination? [70.04436965009072]
最近進化した大推論モデル(LRM)は、長いチェーン・オブ・シークレット(CoT)推論能力を持つ複雑なタスクを解く上で、強力な性能を示している。
推論モデルは幻覚の傾向が強いか?
本稿では3つの観点からその問題に対処する。
論文 参考訳(メタデータ) (2025-05-29T16:53:41Z) - Auditing Meta-Cognitive Hallucinations in Reasoning Large Language Models [8.97308732968526]
本研究では,制約付き知識領域における幻覚の因果関係について,チェーン・オブ・ソート(Chain-of-Thought)の軌跡を監査することによって検討する。
我々の分析によると、長いCoT設定では、RLLMは欠陥のある反射的推論を通じてバイアスやエラーを反復的に補強することができる。
驚いたことに、幻覚の根源にある直接的な介入でさえ、その効果を覆すことができないことが多い。
論文 参考訳(メタデータ) (2025-05-19T14:11:09Z) - Waking Up an AI: A Quantitative Framework for Prompt-Induced Phase Transition in Large Language Models [0.0]
直感的な人間の思考の根底にあるものを研究するための2部構成の枠組みを提案する。
意味的に融合したプロンプトと非融合したプロンプトの応答性に有意な差は認められなかった。
我々の手法は、人工心と人間の心において、直観と概念的な跳躍がどのように現われるかにおいて重要な違いを照明するのに役立ちます。
論文 参考訳(メタデータ) (2025-04-16T06:49:45Z) - The Law of Knowledge Overshadowing: Towards Understanding, Predicting, and Preventing LLM Hallucination [85.18584652829799]
本稿では,知識のシェードイングをモデル化することで,事実の幻覚を定量化する新しい枠組みを提案する。
オーバシャドウ(27.9%)、MemoTrap(13.1%)、NQ-Swap(18.3%)のモデル事実性を顕著に向上させる。
論文 参考訳(メタデータ) (2025-02-22T08:36:06Z) - Think More, Hallucinate Less: Mitigating Hallucinations via Dual Process of Fast and Slow Thinking [124.69672273754144]
HaluSearchは、ツリー検索ベースのアルゴリズムを組み込んだ新しいフレームワークである。
テキスト生成をステップバイステップの推論プロセスとしてフレーム化する。
認知科学における二重プロセス理論に着想を得た階層的思考システムスイッチ機構を導入する。
論文 参考訳(メタデータ) (2025-01-02T15:36:50Z) - AutoHallusion: Automatic Generation of Hallucination Benchmarks for Vision-Language Models [91.78328878860003]
視覚言語モデル(LVLM)は幻覚の傾向が強い。
ベンチマークは多くの場合、障害パターンが一般化できない手作りのコーナーケースに依存します。
最初の自動ベンチマーク生成手法であるAutoHallusionを開発した。
論文 参考訳(メタデータ) (2024-06-16T11:44:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。