論文の概要: Implementing Tensor Logic: Unifying Datalog and Neural Reasoning via Tensor Contraction
- arxiv url: http://arxiv.org/abs/2601.17188v1
- Date: Fri, 23 Jan 2026 21:38:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.402582
- Title: Implementing Tensor Logic: Unifying Datalog and Neural Reasoning via Tensor Contraction
- Title(参考訳): テンソル論理の実装:テンソル収縮によるデータログとニューラル推論の統合
- Authors: Swapn Shah, Wlodek Zadrozny,
- Abstract要約: ドミンゴスによって提唱された論理学は、論理規則とアインシュタイン和は数学的に等価であることを示している。
本稿では,3つの実験を通して,この枠組みの実証検証を行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The unification of symbolic reasoning and neural networks remains a central challenge in artificial intelligence. Symbolic systems offer reliability and interpretability but lack scalability, while neural networks provide learning capabilities but sacrifice transparency. Tensor Logic, proposed by Domingos, suggests that logical rules and Einstein summation are mathematically equivalent, offering a principled path toward unification. This paper provides empirical validation of this framework through three experiments. First, we demonstrate the equivalence between recursive Datalog rules and iterative tensor contractions by computing the transitive closure of a biblical genealogy graph containing 1,972 individuals and 1,727 parent-child relationships, converging in 74 iterations to discover 33,945 ancestor relationships. Second, we implement reasoning in embedding space by training a neural network with learnable transformation matrices, demonstrating successful zero-shot compositional inference on held-out queries. Third, we validate the Tensor Logic superposition construction on FB15k-237, a large-scale knowledge graph with 14,541 entities and 237 relations. Using Domingos's relation matrix formulation $R_r = E^\top A_r E$, we achieve MRR of 0.3068 on standard link prediction and MRR of 0.3346 on a compositional reasoning benchmark where direct edges are removed during training, demonstrating that matrix composition enables multi-hop inference without direct training examples.
- Abstract(参考訳): 象徴的推論とニューラルネットワークの統合は、人工知能における中心的な課題である。
シンボリックシステムは信頼性と解釈性を提供するが、スケーラビリティはない。
ドミンゴスによって提唱されたテンソル論理(英語版)は、論理規則とアインシュタイン和は数学的に等価であり、統一への原則的な道を提供することを示唆している。
本稿では,3つの実験を通して,この枠組みの実証検証を行う。
まず,1,972人,1,727人の親子関係を含む聖書系図の推移的閉鎖を計算し,74回の反復で収束し,33,945人の祖先関係を発見することにより,再帰的データログ規則と反復的テンソル収縮の等価性を示す。
第二に、ニューラルネットワークを学習可能な変換行列でトレーニングすることで、埋め込み空間における推論を実装し、ホールドアウトクエリに対してゼロショット合成推論を成功させる。
第3に、14,541個の実体と237個の関係を持つ大規模知識グラフであるFB15k-237上のテンソル論理重ね合わせの構成を検証する。
ドミンゴスの相関行列式 $R_r = E^\top A_r E$ を用いて、トレーニング中に直接エッジを除去する合成推論ベンチマークで標準リンク予測の 0.3068 の MRR と 0.3346 の MRR を達成し、行列合成が直接トレーニング例なしでマルチホップ推論を可能にすることを示した。
関連論文リスト
- Ternary Gamma Semirings as a Novel Algebraic Framework for Learnable Symbolic Reasoning [0.0]
シンボリックAIタスクは本質的に三進的であり、知識グラフの主観-述語-対象関係を含む。
既存のニューラルネットワークは通常、これらの相互作用を平らにしたり、二成分に分解したりすることで近似する。
本稿では,学習可能かつ微分可能な代数的フレームワークであるニューラルサーナリー・セミリング(NTS)を紹介する。
論文 参考訳(メタデータ) (2025-11-21T19:26:18Z) - SRNN: Spatiotemporal Relational Neural Network for Intuitive Physics Understanding [5.9229807497571665]
本稿では、ニューラルオブジェクト属性、関係、タイムラインの統一表現を確立するモデルである、時空間ネットワーク(SRNN)を紹介する。
CLEVRベンチマークでは、SRNNは競合性能を達成し、視覚ストリームから重要な言語関係を表現する能力を確認する。
我々の研究は、制約された環境での直感的な物理理解のために、重要なニューラルネットワークをエンジニアリングシステムに翻訳する可能性を確認する概念実証を提供する。
論文 参考訳(メタデータ) (2025-11-10T06:43:42Z) - The Features at Convergence Theorem: a first-principles alternative to the Neural Feature Ansatz for how networks learn representations [16.67524623230699]
主要なアプローチはニューラル・フィーチャー・アンザッツ(NFA)である。
NFAは経験的に検証されているが、教育された推測であり、理論的な基礎が欠落している。
我々は、この観察がなぜ、いつ、そうでないのかを理解するために、第一原理のアプローチをとる。
論文 参考訳(メタデータ) (2025-07-08T03:52:48Z) - TabVer: Tabular Fact Verification with Natural Logic [11.002475880349452]
本稿では,自然論理の文脈における数値と算術関数の集合論的解釈を提案する。
大規模言語モデルを用いて,テーブル上で関数を実行することで応答するクレームの健全な部分に関する質問を生成することにより,算術式を生成する。
FEVEROUS上の数ショット設定では、71.4の精度を達成し、完全な神経的および象徴的推論モデルの両方を3.4ポイント上回る。
論文 参考訳(メタデータ) (2024-11-02T00:36:34Z) - LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z) - A Recursive Bateson-Inspired Model for the Generation of Semantic Formal
Concepts from Spatial Sensory Data [77.34726150561087]
本稿では,複雑な感覚データから階層構造を生成するための記号のみの手法を提案する。
このアプローチは、概念や概念の創始の鍵としてのバテソンの差異の概念に基づいている。
このモデルは、トレーニングなしでかなりリッチだが人間に読まれる概念表現を生成することができる。
論文 参考訳(メタデータ) (2023-07-16T15:59:13Z) - Neural networks trained with SGD learn distributions of increasing
complexity [78.30235086565388]
勾配降下法を用いてトレーニングされたニューラルネットワークは、まず低次入力統計を用いて入力を分類する。
その後、トレーニング中にのみ高次の統計を利用する。
本稿では,DSBと他の単純度バイアスとの関係について論じ,学習における普遍性の原理にその意味を考察する。
論文 参考訳(メタデータ) (2022-11-21T15:27:22Z) - Neural Proof Nets [0.8379286663107844]
本稿では,Sinkhorn ネットワークをベースとした証明ネットのニューラルバリアントを提案する。
AEThelでは,テキスト文の正しい書き起こしを線形ラムダ計算の証明や用語として70%の精度で行うことができる。
論文 参考訳(メタデータ) (2020-09-26T22:48:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。