論文の概要: Eidoku: A Neuro-Symbolic Verification Gate for LLM Reasoning via Structural Constraint Satisfaction
- arxiv url: http://arxiv.org/abs/2512.20664v1
- Date: Fri, 19 Dec 2025 05:29:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-25 19:43:21.548114
- Title: Eidoku: A Neuro-Symbolic Verification Gate for LLM Reasoning via Structural Constraint Satisfaction
- Title(参考訳): Eidoku: 構造制約満足度によるLLM推論のための神経シンボリック検証ゲート
- Authors: Shinobu Miya,
- Abstract要約: 大規模言語モデル(LLM)は、しばしば、モデル自身によって高い確率で割り当てられる幻覚文を生成する。
このことは、幻覚はしばしば低信頼現象ではなく、構造的整合性の失敗であることを示している。
我々は,LLM推論を,生成可能性とは独立に動作する制約満足度問題(CSP)として検証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) frequently produce hallucinated statements that are assigned high likelihood by the model itself, exposing a fundamental limitation of probability-based verification. This suggests that hallucination is often not a low-confidence phenomenon, but a failure of structural consistency. In this work, we reformulate the verification of LLM reasoning as a Constraint Satisfaction Problem (CSP) operating independently of the generation likelihood. Rather than optimizing for statistical plausibility, we model verification as a feasibility check based on structural violation cost -- the computational cost required to embed a candidate reasoning step into the contextual graph structure. We define a total cost function composed of three proxies: (i) graph connectivity (structural), (ii) feature space consistency (geometric), and (iii) logical entailment (symbolic). Crucially, verification is performed via a lightweight System-2 gate, Eidoku, which rejects candidates exceeding a context-calibrated cost threshold. The threshold is not learned but is derived from the intrinsic statistics of the context, avoiding ad hoc heuristics. We demonstrate that this approach successfully rejects ``smooth falsehoods'' -- statements that are highly probable yet structurally disconnected -- that probability-based verifiers are principally incapable of detecting. Our experiments on a controlled diagnostic dataset show that explicitly enforcing structural constraints allows for the deterministic rejection of this specific class of hallucinations, serving as a neuro-symbolic sanity check for generative reasoning.
- Abstract(参考訳): 大規模言語モデル(LLM)は、しばしば、モデル自身によって高い確率で割り当てられる幻覚文を生成し、確率に基づく検証の基本的な制限を明らかにする。
このことは、幻覚はしばしば低信頼現象ではなく、構造的整合性の失敗であることを示している。
本研究では, LLM推論の検証を, 生成可能性に依存しない制約満足度問題 (CSP) として再検討する。
統計的妥当性を最適化する代わりに、我々は、構造的違反コスト(文脈グラフ構造に候補推論ステップを埋め込むのに必要な計算コスト)に基づいて、検証を実行可能性チェックとしてモデル化する。
3つのプロキシからなる全コスト関数を定義する。
(i)グラフ接続(構造)
(二)特徴空間の整合性(幾何学)、及び
(三)論理的含意(記号的)
重要な点として、検証は軽量なSystem-2ゲートであるEidokuを通じて行われ、これは文脈校正コスト閾値を超える候補を拒否する。
閾値は学習されていないが、文脈の本質的な統計から派生しており、アドホックなヒューリスティックスは避けている。
このアプローチは、確率ベースの検証器が主に検出できないという「smooth falsehoods'」 -- 非常に確率が高く、構造的に非連結なステートメント -- をうまく拒否することを示した。
制御された診断データセットを用いた実験の結果, 構造的制約を明示的に強制することは, 特定の幻覚の分類を決定論的に拒絶することを可能にし, 生成的推論のためのニューロシンボリック・サニティチェックとして機能することがわかった。
関連論文リスト
- Interpretable Logical Anomaly Classification via Constraint Decomposition and Instruction Fine-Tuning [0.17722218114340835]
我々は,単一推論ステップにおいて,異常検出ときめ細かい違反分類を統一するタスクである論理異常分類(LAC)を導入する。
LACに取り組むために,複雑な論理的制約を検証可能なサブクエリ列に分解する視覚言語フレームワークであるLogiClsを提案する。
論文 参考訳(メタデータ) (2026-02-03T13:48:09Z) - Think Locally, Explain Globally: Graph-Guided LLM Investigations via Local Reasoning and Belief Propagation [5.191980417814362]
LLMエージェントは、ほとんどの環境が静的で、必要な情報がモデルのコンテキストウインドウに適合する場合、排他的になる。
直腸型薬剤は、この体制では特に脆い。
本稿では,LLMが限定的な局所的エビデンスマイニングとラベリングを行うためのフレームワークであるEoGを提案する。
論文 参考訳(メタデータ) (2026-01-25T17:27:19Z) - VIRO: Robust and Efficient Neuro-Symbolic Reasoning with Verification for Referring Expression Comprehension [51.76841625486355]
Referring Expression (REC) は、自然言語クエリに対応する画像領域をローカライズすることを目的としている。
最近のニューロシンボリックRECアプローチは、大規模言語モデル(LLM)と視覚言語モデル(VLM)を利用して構成推論を行う。
推論ステップ内に軽量な演算子レベルの検証器を組み込む,ニューロシンボリックなフレームワークであるVIROを紹介する。
論文 参考訳(メタデータ) (2026-01-19T07:21:19Z) - Towards Unsupervised Causal Representation Learning via Latent Additive Noise Model Causal Autoencoders [1.9732490977700972]
教師なし表現学習は、潜伏する生成因子を回復しようとする。
観測データから因果変数を遠ざけることは、監督なしでは不可能である。
本研究では、非教師付き発見のための強力な誘導バイアスとして、Latent Additive Noise Model Causal Autoencoder (LANCA)を提案する。
論文 参考訳(メタデータ) (2025-12-15T10:52:30Z) - SeSE: A Structural Information-Guided Uncertainty Quantification Framework for Hallucination Detection in LLMs [43.76748192880071]
本稿では,大規模言語モデル固有の意味的不確かさを定量化する,原則的UQフレームワークを提案する。
我々は,指向性セマンティック依存をキャプチャする適応的にスペーシングされた有向グラフ構築アルゴリズムを開発した。
そして階層的抽象化を通じて潜在意味構造情報を利用する。
論文 参考訳(メタデータ) (2025-11-20T11:54:12Z) - COIN: Uncertainty-Guarding Selective Question Answering for Foundation Models with Provable Risk Guarantees [51.5976496056012]
COINは、統計的に有効な閾値を校正し、質問毎に1つの生成された回答をフィルタリングする不確実性保護選択フレームワークである。
COINはキャリブレーションセット上で経験的誤差率を推定し、信頼区間法を適用して真誤差率に高い確率上界を確立する。
リスク管理におけるCOINの堅牢性,許容回答を維持するための強いテストタイムパワー,キャリブレーションデータによる予測効率を実証する。
論文 参考訳(メタデータ) (2025-06-25T07:04:49Z) - Controllable Logical Hypothesis Generation for Abductive Reasoning in Knowledge Graphs [54.596180382762036]
知識グラフの帰納的推論は、観測された実体からもっともらしい論理的仮説を生成することを目的としている。
可制御性の欠如により、単一の観測は、多くの妥当だが冗長あるいは無関係な仮説をもたらす可能性がある。
帰納的推論の実用性を改善するために,制御可能な仮説生成タスクを導入する。
論文 参考訳(メタデータ) (2025-05-27T09:36:47Z) - FactTest: Factuality Testing in Large Language Models with Finite-Sample and Distribution-Free Guarantees [41.78390564658645]
幻覚や非現実的コンテンツを生成するための大規模言語モデル(LLM)は、高い領域での信頼性を損なう。
FactTest は LLM が与えられた質問に対する正しい回答を確実に提供できるかどうかを統計的に評価する新しいフレームワークである。
本研究では,FactTestが幻覚を効果的に検出し,未知の疑問に答えることを禁じるモデルの能力を向上させることにより,40%以上の精度向上を実現していることを示す。
論文 参考訳(メタデータ) (2024-11-04T20:53:04Z) - To Believe or Not to Believe Your LLM [51.2579827761899]
大規模言語モデル(LLM)における不確実性定量化について検討する。
疫学的な不確実性が大きい場合にのみ確実に検出できる情報理論の指標を導出する。
定式化の利点を実証する一連の実験を行う。
論文 参考訳(メタデータ) (2024-06-04T17:58:18Z) - Fact-Checking the Output of Large Language Models via Token-Level Uncertainty Quantification [116.77055746066375]
大型言語モデル(LLM)は幻覚、すなわちその出力に誤った主張を生じさせることで有名である。
本稿では,トークンレベルの不確実性定量化に基づくファクトチェックと幻覚検出パイプラインを提案する。
論文 参考訳(メタデータ) (2024-03-07T17:44:17Z) - Identification of Causal Structure in the Presence of Missing Data with
Additive Noise Model [24.755511829867398]
近年の付加雑音モデルでは,自己マスキングの欠如の存在下で因果構造を学習する可能性が示唆された。
本稿では, 以上の理論結果に基づいて, 因果骨格と因果方向を学習する実用的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-19T14:44:26Z) - Neuro-Symbolic Entropy Regularization [78.16196949641079]
構造化予測では、目的は構造化されたオブジェクトをエンコードする多くの出力変数を共同で予測することである。
エントロピー正則化(Entropy regularization)という1つのアプローチは、決定境界が低確率領域にあるべきであることを示唆している。
我々は、モデルが有効対象を確実に予測することを奨励する損失、ニューロシンボリックエントロピー正規化を提案する。
論文 参考訳(メタデータ) (2022-01-25T06:23:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。