論文の概要: Constructing a Neuro-Symbolic Mathematician from First Principles
- arxiv url: http://arxiv.org/abs/2601.00125v1
- Date: Wed, 31 Dec 2025 22:02:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-05 15:04:33.268348
- Title: Constructing a Neuro-Symbolic Mathematician from First Principles
- Title(参考訳): 第一原理によるニューロシンボリック数学者の構築
- Authors: Keqin Xie,
- Abstract要約: 大規模言語モデルは複雑な推論において永続的な論理的失敗を示す。
本稿では,高次ハイパーグラフとして数学的状態を符号化したニューロシンボリックアーキテクチャであるMathesisを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) exhibit persistent logical failures in complex reasoning due to the lack of an internal axiomatic framework. We propose Mathesis, a neuro-symbolic architecture that encodes mathematical states as higher-order hypergraphs and uses a Symbolic Reasoning Kernel (SRK)--a differentiable logic engine that maps constraints to a continuous energy landscape. By defining a global energy function E(G), where zero energy implies logical consistency, the SRK yields gradient-based signals to train a Hypergraph Transformer Brain, turning proof search into energy minimization. Multi-step deduction is enabled via Monte Carlo Tree Search and Evolutionary Proof Search, guided by learned value functions and semantic unification.
- Abstract(参考訳): 大規模言語モデル(LLM)は、内部の公理的フレームワークが欠如しているため、複雑な推論において永続的な論理的失敗を示す。
本稿では,高次ハイパーグラフとして数学的状態を符号化するニューロシンボリックアーキテクチャであるMathesisを提案し,制約を連続的なエネルギー景観にマッピングする微分可能な論理エンジンであるSymbolic Reasoning Kernel(SRK)を用いる。
ゼロエネルギーが論理的整合性を意味する大域エネルギー関数 E(G) を定義することにより、SRK は勾配に基づく信号を生成してハイパーグラフ変換脳を訓練し、証明探索をエネルギー最小化に変換する。
マルチステップ推論はモンテカルロ木探索と進化的証明探索によって実現され、学習値関数と意味的統一によってガイドされる。
関連論文リスト
- Protect$^*$: Steerable Retrosynthesis through Neuro-Symbolic State Encoding [0.0]
本稿では,Large Language Models (LLMs) の生成能力を厳格な化学論理に基礎を置く,ニューロシンボリックなフレームワークであるProtect$*$を紹介する。
我々のアプローチは、ルールベースの自動推論とニューラルモデルの生成を組み合わせる。
我々は,エリスロマイシンBの新規合成経路の発見を含む,複雑な天然物に関するケーススタディを通じて,このニューロシンボリックアプローチを実証する。
論文 参考訳(メタデータ) (2026-02-13T19:41:55Z) - On the Limits of Hierarchically Embedded Logic in Classical Neural Networks [0.0]
各レイヤが、論理的推論の少なくとも1つのレベルをエンコードできることを示します。
我々は、特定の深さのニューラルネットワークが1つの高階論理において、述語を忠実に表現できないことを証明した。
論文 参考訳(メタデータ) (2025-07-28T16:13:41Z) - Why Neural Network Can Discover Symbolic Structures with Gradient-based Training: An Algebraic and Geometric Foundation for Neurosymbolic Reasoning [73.18052192964349]
我々は、連続的なニューラルネットワークトレーニングのダイナミックスから、離散的なシンボル構造が自然に現れるかを説明する理論的枠組みを開発する。
ニューラルパラメータを測度空間に上げ、ワッサーシュタイン勾配流としてモデル化することにより、幾何的制約の下では、パラメータ測度 $mu_t$ が2つの同時現象となることを示す。
論文 参考訳(メタデータ) (2025-06-26T22:40:30Z) - Anyon Theory and Topological Frustration of High-Efficiency Quantum Low-Density Parity-Check Codes [12.383649662360302]
量子低密度パリティチェック(QLDPC)符号は、低オーバーヘッドフォールトトレラント量子計算への有望な経路を提供する。
我々のレターはQLDPC符号の耐障害性を探るための厳密な理論的基礎を提供する。
論文 参考訳(メタデータ) (2025-03-06T18:46:14Z) - Standard Neural Computation Alone Is Insufficient for Logical Intelligence [3.230778132936486]
論理的推論を統合するためには、標準的なニューラルネットワーク層を根本的に再考する必要がある、と我々は主張する。
論理演算の微分可能な近似を組み込んだ論理ニューラルネットワーク(LNU)モジュラーコンポーネントを提唱する。
論文 参考訳(メタデータ) (2025-02-04T09:07:45Z) - Compositional Generalization Across Distributional Shifts with Sparse Tree Operations [77.5742801509364]
我々は、微分可能木機械と呼ばれる統合されたニューロシンボリックアーキテクチャを導入する。
シンボル構造の疎ベクトル表現を用いることで,モデルの効率を大幅に向上する。
より一般的なseq2seq問題に制限されたtree2tree問題以外の適用を可能にする。
論文 参考訳(メタデータ) (2024-12-18T17:20:19Z) - Improving Complex Reasoning over Knowledge Graph with Logic-Aware Curriculum Tuning [89.89857766491475]
カリキュラムベースの論理認識型チューニングフレームワークであるLACTを提案する。
具体的には、任意の一階論理クエリをバイナリツリー分解によって拡張する。
広く使われているデータセットに対する実験では、LATは高度な手法よりも大幅に改善(平均+5.5% MRRスコア)し、新しい最先端技術を実現している。
論文 参考訳(メタデータ) (2024-05-02T18:12:08Z) - LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z) - Energy Transformer [64.22957136952725]
我々の研究は、機械学習における有望な3つのパラダイム、すなわち注意機構、エネルギーベースモデル、連想記憶の側面を組み合わせる。
本稿では,エネルギー変換器(ET,Energy Transformer)と呼ばれる新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-02-14T18:51:22Z) - Dist2Cycle: A Simplicial Neural Network for Homology Localization [66.15805004725809]
単純複体は多方向順序関係を明示的にエンコードするグラフの高次元一般化と見なすことができる。
単体錯体の$k$-homological特徴によってパラメータ化された関数のグラフ畳み込みモデルを提案する。
論文 参考訳(メタデータ) (2021-10-28T14:59:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。