論文の概要: Incentives or Ontology? A Structural Rebuttal to OpenAI's Hallucination Thesis
- arxiv url: http://arxiv.org/abs/2512.14801v1
- Date: Tue, 16 Dec 2025 17:39:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:26.743525
- Title: Incentives or Ontology? A Structural Rebuttal to OpenAI's Hallucination Thesis
- Title(参考訳): インセンティブとオントロジー : OpenAI の幻覚論への構造的反論
- Authors: Richard Ackermann, Simeon Emanuilov,
- Abstract要約: 我々は、幻覚は最適化の失敗ではなく、トランスフォーマーモデルのアーキテクチャ上の必然性であると主張している。
実験の結果,幻覚は,外的真理検証と禁忌モジュールによってのみ除去できることが示唆された。
幻覚は生成的アーキテクチャの構造的特性であると結論付けている。
- 参考スコア(独自算出の注目度): 0.42970700836450487
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: OpenAI has recently argued that hallucinations in large language models result primarily from misaligned evaluation incentives that reward confident guessing rather than epistemic humility. On this view, hallucination is a contingent behavioral artifact, remediable through improved benchmarks and reward structures. In this paper, we challenge that interpretation. Drawing on previous work on structural hallucination and empirical experiments using a Licensing Oracle, we argue that hallucination is not an optimization failure but an architectural inevitability of the transformer model. Transformers do not represent the world; they model statistical associations among tokens. Their embedding spaces form a pseudo-ontology derived from linguistic co-occurrence rather than world-referential structure. At ontological boundary conditions - regions where training data is sparse or incoherent - the model necessarily interpolates fictional continuations in order to preserve coherence. No incentive mechanism can modify this structural dependence on pattern completion. Our empirical results demonstrate that hallucination can only be eliminated through external truth-validation and abstention modules, not through changes to incentives, prompting, or fine-tuning. The Licensing Oracle achieves perfect abstention precision across domains precisely because it supplies grounding that the transformer lacks. We conclude that hallucination is a structural property of generative architectures and that reliable AI requires hybrid systems that distinguish linguistic fluency from epistemic responsibility.
- Abstract(参考訳): OpenAIは最近、大規模な言語モデルにおける幻覚は、疫学的な謙虚さよりも自信ある推測に報いる不整合評価インセンティブに起因すると論じている。
この観点では、幻覚は、改善されたベンチマークと報酬構造を通して修復可能な、一時的な行動アーティファクトである。
本稿では,その解釈に挑戦する。
Licensing Oracleを用いた構造的幻覚と経験的実験に関する以前の研究に基づいて、幻覚は最適化の失敗ではなく、トランスフォーマーモデルのアーキテクチャ上の必然性である、と論じている。
トランスフォーマーは世界を表すものではなく、トークン間の統計的関連をモデル化する。
埋め込み空間は、世界参照構造ではなく言語的共起に由来する擬オントロジーを形成する。
オントロジ境界条件 - トレーニングデータが疎小あるいは不整合である領域において、モデルは必ずしもコヒーレンスを維持するために架空の継続を補間する。
この構造的依存をパターン補完に変化させるインセンティブ機構は存在しない。
我々の経験的結果は、幻覚は、インセンティブ、刺激、微調整によってではなく、外部の真理検証と禁制モジュールによってのみ排除できることを示している。
Licensing Oracleは、トランスフォーマーが欠如していることの根拠を提供するため、ドメイン間で完全な禁断精度を達成する。
我々は、幻覚は生成的アーキテクチャの構造的特性であり、信頼度の高いAIには、言語流布とてんかんの責任を区別するハイブリッドシステムが必要であると結論付けた。
関連論文リスト
- Distributional Semantics Tracing: A Framework for Explaining Hallucinations in Large Language Models [4.946483489399819]
大規模言語モデル(LLM)は、事実的に誤った文を生成する幻覚の傾向にある。
この研究は、3つの主要な貢献を通じて、この障害モードの本質的、アーキテクチャ的起源について調査する。
論文 参考訳(メタデータ) (2025-10-07T16:40:31Z) - Hallucination is Inevitable for LLMs with the Open World Assumption [10.473344768196908]
大言語モデル(LLM)は印象的な言語能力を示すが、不正確または製造されたアウトプットも生成する(しばしば幻覚と呼ばれる)。」
本稿では,一般化問題の顕在化として「幻覚」を再構成する。
論文 参考訳(メタデータ) (2025-09-29T13:38:44Z) - Review of Hallucination Understanding in Large Language and Vision Models [65.29139004945712]
本稿では,多様なアプリケーションにまたがる画像とテキストの幻覚を特徴付けるフレームワークを提案する。
我々の調査によると、幻覚はデータ分布や遺伝バイアスの予測可能なパターンから生じることが多い。
この調査は、現実世界の生成AIシステムにおける幻覚に対するより堅牢で効果的なソリューションを開発する基盤を提供する。
論文 参考訳(メタデータ) (2025-09-26T09:23:08Z) - How Large Language Models are Designed to Hallucinate [0.42970700836450487]
幻覚はトランスフォーマーアーキテクチャの構造的な結果であると主張する。
本研究の貢献は,(1) 既存の説明が不十分な理由を示す比較説明,(2) 提案されたベンチマークによる実存的構造に関連付けられた幻覚の予測分類,(3) 開示の欠如を抑えることの可能な「真理に制約された」アーキテクチャへの設計方針,の3つである。
論文 参考訳(メタデータ) (2025-09-19T16:46:27Z) - HalluLens: LLM Hallucination Benchmark [49.170128733508335]
大規模言語モデル(LLM)は、しばしばユーザ入力やトレーニングデータから逸脱する応答を生成する。
本稿では,新たな内因性評価タスクと既存内因性評価タスクを併用した総合幻覚ベンチマークを提案する。
論文 参考訳(メタデータ) (2025-04-24T13:40:27Z) - Why and How LLMs Hallucinate: Connecting the Dots with Subsequence Associations [82.42811602081692]
本稿では,幻覚を体系的に追跡・理解するサブシーケンス・アソシエーション・フレームワークを提案する。
主要な洞察は、支配的な幻覚協会が忠実なものを上回るときに生じる幻覚である。
ランダムな入力コンテキストにおける幻覚の確率を解析することにより因果列を同定するトレースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-04-17T06:34:45Z) - LLMs Will Always Hallucinate, and We Need to Live With This [1.3810901729134184]
この研究は、言語モデルにおける幻覚は時折エラーであるだけでなく、これらのシステムの必然的な特徴であると主張している。
したがって、アーキテクチャの改善、データセットの強化、ファクトチェックメカニズムを通じてそれらを取り除くことは不可能である。
論文 参考訳(メタデータ) (2024-09-09T16:01:58Z) - Do Androids Know They're Only Dreaming of Electric Sheep? [45.513432353811474]
我々は,その幻覚行動を予測するために,トランスフォーマー言語モデルの内部表現を訓練したプローブを設計する。
我々の探査機は訓練が狭く、訓練領域に敏感であることが分かりました。
モデル状態が利用可能である場合,探索は言語モデル幻覚評価に代わる実現可能かつ効率的な代替手段であることが判明した。
論文 参考訳(メタデータ) (2023-12-28T18:59:50Z) - Don't Say What You Don't Know: Improving the Consistency of Abstractive
Summarization by Constraining Beam Search [54.286450484332505]
本研究は,幻覚とトレーニングデータの関連性を解析し,学習対象の要約を学習した結果,モデルが幻覚を呈する証拠を見出した。
本稿では,ビーム探索を制約して幻覚を回避し,変換器をベースとした抽象要約器の整合性を向上させる新しい復号法であるPINOCCHIOを提案する。
論文 参考訳(メタデータ) (2022-03-16T07:13:52Z) - On Hallucination and Predictive Uncertainty in Conditional Language
Generation [76.18783678114325]
高い予測の不確実性は幻覚の確率が高い。
認識的不確実性は、アレエータ的あるいは全体的不確実性よりも幻覚の指標である。
提案したビームサーチ変種との幻覚を抑えるため、標準メートル法で取引性能のより良い結果を得るのに役立ちます。
論文 参考訳(メタデータ) (2021-03-28T00:32:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。