論文の概要: Constructing a Neuro-Symbolic Mathematician from First Principles
- arxiv url: http://arxiv.org/abs/2601.00125v1
- Date: Wed, 31 Dec 2025 22:02:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-05 15:04:33.268348
- Title: Constructing a Neuro-Symbolic Mathematician from First Principles
- Title(参考訳): 第一原理によるニューロシンボリック数学者の構築
- Authors: Keqin Xie,
- Abstract要約: 大規模言語モデルは複雑な推論において永続的な論理的失敗を示す。
本稿では,高次ハイパーグラフとして数学的状態を符号化したニューロシンボリックアーキテクチャであるMathesisを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) exhibit persistent logical failures in complex reasoning due to the lack of an internal axiomatic framework. We propose Mathesis, a neuro-symbolic architecture that encodes mathematical states as higher-order hypergraphs and uses a Symbolic Reasoning Kernel (SRK)--a differentiable logic engine that maps constraints to a continuous energy landscape. By defining a global energy function E(G), where zero energy implies logical consistency, the SRK yields gradient-based signals to train a Hypergraph Transformer Brain, turning proof search into energy minimization. Multi-step deduction is enabled via Monte Carlo Tree Search and Evolutionary Proof Search, guided by learned value functions and semantic unification.
- Abstract(参考訳): 大規模言語モデル(LLM)は、内部の公理的フレームワークが欠如しているため、複雑な推論において永続的な論理的失敗を示す。
本稿では,高次ハイパーグラフとして数学的状態を符号化するニューロシンボリックアーキテクチャであるMathesisを提案し,制約を連続的なエネルギー景観にマッピングする微分可能な論理エンジンであるSymbolic Reasoning Kernel(SRK)を用いる。
ゼロエネルギーが論理的整合性を意味する大域エネルギー関数 E(G) を定義することにより、SRK は勾配に基づく信号を生成してハイパーグラフ変換脳を訓練し、証明探索をエネルギー最小化に変換する。
マルチステップ推論はモンテカルロ木探索と進化的証明探索によって実現され、学習値関数と意味的統一によってガイドされる。
関連論文リスト
- On the Limits of Hierarchically Embedded Logic in Classical Neural Networks [0.0]
各レイヤが、論理的推論の少なくとも1つのレベルをエンコードできることを示します。
我々は、特定の深さのニューラルネットワークが1つの高階論理において、述語を忠実に表現できないことを証明した。
論文 参考訳(メタデータ) (2025-07-28T16:13:41Z) - Why Neural Network Can Discover Symbolic Structures with Gradient-based Training: An Algebraic and Geometric Foundation for Neurosymbolic Reasoning [73.18052192964349]
我々は、連続的なニューラルネットワークトレーニングのダイナミックスから、離散的なシンボル構造が自然に現れるかを説明する理論的枠組みを開発する。
ニューラルパラメータを測度空間に上げ、ワッサーシュタイン勾配流としてモデル化することにより、幾何的制約の下では、パラメータ測度 $mu_t$ が2つの同時現象となることを示す。
論文 参考訳(メタデータ) (2025-06-26T22:40:30Z) - Anyon Theory and Topological Frustration of High-Efficiency Quantum Low-Density Parity-Check Codes [12.383649662360302]
量子低密度パリティチェック(QLDPC)符号は、低オーバーヘッドフォールトトレラント量子計算への有望な経路を提供する。
我々のレターはQLDPC符号の耐障害性を探るための厳密な理論的基礎を提供する。
論文 参考訳(メタデータ) (2025-03-06T18:46:14Z) - Improving Complex Reasoning over Knowledge Graph with Logic-Aware Curriculum Tuning [89.89857766491475]
カリキュラムベースの論理認識型チューニングフレームワークであるLACTを提案する。
具体的には、任意の一階論理クエリをバイナリツリー分解によって拡張する。
広く使われているデータセットに対する実験では、LATは高度な手法よりも大幅に改善(平均+5.5% MRRスコア)し、新しい最先端技術を実現している。
論文 参考訳(メタデータ) (2024-05-02T18:12:08Z) - LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。