論文の概要: A tensor network formalism for neuro-symbolic AI
- arxiv url: http://arxiv.org/abs/2601.15442v1
- Date: Wed, 21 Jan 2026 20:20:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.409911
- Title: A tensor network formalism for neuro-symbolic AI
- Title(参考訳): ニューロシンボリックAIのためのテンソルネットワーク形式
- Authors: Alex Goessmann, Janina Schütte, Maximilian Fröhlich, Martin Eigel,
- Abstract要約: テンソル分解における異なるアプローチから生じる疎性原理を捉えるテンソルネットワーク形式論を導入する。
提案された形式は、論理式や確率分布を構造化テンソル分解として表現するために適用することができる。
- 参考スコア(独自算出の注目度): 0.6533091401094101
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The unification of neural and symbolic approaches to artificial intelligence remains a central open challenge. In this work, we introduce a tensor network formalism, which captures sparsity principles originating in the different approaches in tensor decompositions. In particular, we describe a basis encoding scheme for functions and model neural decompositions as tensor decompositions. The proposed formalism can be applied to represent logical formulas and probability distributions as structured tensor decompositions. This unified treatment identifies tensor network contractions as a fundamental inference class and formulates efficiently scaling reasoning algorithms, originating from probability theory and propositional logic, as contraction message passing schemes. The framework enables the definition and training of hybrid logical and probabilistic models, which we call Hybrid Logic Network. The theoretical concepts are accompanied by the python library tnreason, which enables the implementation and practical use of the proposed architectures.
- Abstract(参考訳): 人工知能に対するニューラルネットワークと象徴的なアプローチの統合は、依然として中心的なオープンな課題である。
本研究では,テンソル分解における異なるアプローチから生じる疎性原理を捉えるテンソルネットワーク形式について述べる。
特に、関数の基底符号化スキームとモデル神経分解をテンソル分解として記述する。
提案された形式は、論理式や確率分布を構造化テンソル分解として表現するために適用することができる。
この統一された処理は、テンソルネットワークの収縮を基本的な推論クラスとして識別し、確率論と命題論理から導かれる推論アルゴリズムを、収縮メッセージパッシングスキームとして効率的にスケーリングする。
このフレームワークはハイブリッド論理ネットワーク(Hybrid Logic Network)と呼ばれるハイブリッド論理モデルと確率モデルの定義とトレーニングを可能にする。
理論的概念には、提案したアーキテクチャの実装と実用化を可能にするpython library tnreasonが伴っている。
関連論文リスト
- To Neuro-Symbolic Classification and Beyond by Compiling Description Logic Ontologies to Probabilistic Circuits [13.179785809195955]
我々は,記述論理オントロジーと整合した予測を確実に出力するニューロシンボリック手法を開発した。
我々は,ニューラルネットワークのベースラインと比較した場合,ニューラルシンボリック分類器が確実に一貫した予測を生成することを示す。
論文 参考訳(メタデータ) (2026-01-21T11:30:14Z) - Categorical Construction of Logically Verifiable Neural Architectures [0.0]
ニューラルネットワークはパターン認識に優れるが、信頼できる論理的推論に苦しむ。
我々は、証明可能な論理的保証を持つニューラルネットワークを体系的に構築する分類的枠組みを開発する。
このフレームワークは信頼できるAIシステムのための数学的基盤を提供し、定理証明、形式的検証、そして検証可能な論理的振る舞いを必要とする安全クリティカルな推論タスクへの応用を提供する。
論文 参考訳(メタデータ) (2025-08-02T04:30:05Z) - Why Neural Network Can Discover Symbolic Structures with Gradient-based Training: An Algebraic and Geometric Foundation for Neurosymbolic Reasoning [73.18052192964349]
我々は、連続的なニューラルネットワークトレーニングのダイナミックスから、離散的なシンボル構造が自然に現れるかを説明する理論的枠組みを開発する。
ニューラルパラメータを測度空間に上げ、ワッサーシュタイン勾配流としてモデル化することにより、幾何的制約の下では、パラメータ測度 $mu_t$ が2つの同時現象となることを示す。
論文 参考訳(メタデータ) (2025-06-26T22:40:30Z) - Discrete, compositional, and symbolic representations through attractor dynamics [51.20712945239422]
我々は,思考の確率的言語(PLoT)に似た認知過程をモデル化するために,アトラクタダイナミクスを記号表現と統合した新しいニューラルシステムモデルを導入する。
我々のモデルは、連続表現空間を、事前定義されたプリミティブに頼るのではなく、教師なし学習を通じて、記号系の意味性と構成性の特徴を反映する、記号列に対応する引き付け状態を持つ離散盆地に分割する。
このアプローチは、認知操作の複雑な双対性を反映したより包括的なモデルを提供する、AIにおける表現力の証明された神経弁別可能な基質であるニューラルダイナミクスを通じて、シンボル処理とサブシンボル処理の両方を統合する統一的なフレームワークを確立する。
論文 参考訳(メタデータ) (2023-10-03T05:40:56Z) - A Recursive Bateson-Inspired Model for the Generation of Semantic Formal
Concepts from Spatial Sensory Data [77.34726150561087]
本稿では,複雑な感覚データから階層構造を生成するための記号のみの手法を提案する。
このアプローチは、概念や概念の創始の鍵としてのバテソンの差異の概念に基づいている。
このモデルは、トレーニングなしでかなりリッチだが人間に読まれる概念表現を生成することができる。
論文 参考訳(メタデータ) (2023-07-16T15:59:13Z) - Entropy-based Logic Explanations of Neural Networks [24.43410365335306]
本稿では,ニューラルネットワークから論理的説明を抽出するエンド・ツー・エンドの微分可能な手法を提案する。
この方法はエントロピーに基づく基準に依存しており、最も関連する概念を自動的に識別する。
i) このエントロピーに基づく基準は, 臨床データからコンピュータビジョンへの安全クリティカル領域における簡潔な論理的説明の蒸留を可能にし, (ii) 提案手法は分類精度において最先端のホワイトボックスモデルより優れていることを示す。
論文 参考訳(メタデータ) (2021-06-12T15:50:47Z) - Partial Differential Equations is All You Need for Generating Neural Architectures -- A Theory for Physical Artificial Intelligence Systems [40.20472268839781]
我々は、統計物理学における反応拡散方程式、量子力学におけるシュル・オーディンガー方程式、同軸光学におけるヘルムホルツ方程式を一般化する。
数値解を求めるためにNPDEを離散化するために有限差分法を用いる。
多層パーセプトロン、畳み込みニューラルネットワーク、リカレントニューラルネットワークなど、ディープニューラルネットワークアーキテクチャの基本構築ブロックが生成される。
論文 参考訳(メタデータ) (2021-03-10T00:05:46Z) - Logical Neural Networks [51.46602187496816]
ニューラルネットワーク(学習)と記号論理(知識と推論)の両方の重要な特性をシームレスに提供する新しいフレームワークを提案する。
すべてのニューロンは、重み付けされた実数値論理における公式の構成要素としての意味を持ち、非常に解釈不能な非絡み合い表現をもたらす。
推論は事前に定義されたターゲット変数ではなく、オムニであり、論理的推論に対応する。
論文 参考訳(メタデータ) (2020-06-23T16:55:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。