論文の概要: DeepGraphLog for Layered Neurosymbolic AI
- arxiv url: http://arxiv.org/abs/2509.07665v1
- Date: Tue, 09 Sep 2025 12:32:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:27.303962
- Title: DeepGraphLog for Layered Neurosymbolic AI
- Title(参考訳): 階層型ニューロシンボリックAIのためのDeepGraphLog
- Authors: Adem Kikaj, Giuseppe Marra, Floris Geerts, Robin Manhaeve, Luc De Raedt,
- Abstract要約: 我々は、Graph Neural PredicatesでProbLogを拡張する新しいNeSyフレームワークであるDeepGraphLogを紹介する。
DeepGraphLogはシンボル表現をグラフとして扱うことで,グラフニューラルネットワーク(GNN)による処理を可能にする
- 参考スコア(独自算出の注目度): 26.481541418952858
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neurosymbolic AI (NeSy) aims to integrate the statistical strengths of neural networks with the interpretability and structure of symbolic reasoning. However, current NeSy frameworks like DeepProbLog enforce a fixed flow where symbolic reasoning always follows neural processing. This restricts their ability to model complex dependencies, especially in irregular data structures such as graphs. In this work, we introduce DeepGraphLog, a novel NeSy framework that extends ProbLog with Graph Neural Predicates. DeepGraphLog enables multi-layer neural-symbolic reasoning, allowing neural and symbolic components to be layered in arbitrary order. In contrast to DeepProbLog, which cannot handle symbolic reasoning via neural methods, DeepGraphLog treats symbolic representations as graphs, enabling them to be processed by Graph Neural Networks (GNNs). We showcase the capabilities of DeepGraphLog on tasks in planning, knowledge graph completion with distant supervision, and GNN expressivity. Our results demonstrate that DeepGraphLog effectively captures complex relational dependencies, overcoming key limitations of existing NeSy systems. By broadening the applicability of neurosymbolic AI to graph-structured domains, DeepGraphLog offers a more expressive and flexible framework for neural-symbolic integration.
- Abstract(参考訳): ニューロシンボリックAI(NeSy)は、ニューラルネットワークの統計的強度と、シンボリック推論の解釈可能性と構造を統合することを目的としている。
しかし、DeepProbLogのような現在のNeSyフレームワークは、シンボリック推論が常にニューラル処理に従う固定フローを強制している。
これは、特にグラフのような不規則なデータ構造において、複雑な依存関係をモデル化する能力を制限する。
In this work, we introduced DeepGraphLog, a novel NeSy framework that extends ProbLog with Graph Neural Predicates。
DeepGraphLogは多層的ニューラルシンボリック推論を可能にし、ニューラルおよびシンボリックコンポーネントを任意の順序でレイヤ化することができる。
ニューラルネットワークによるシンボル推論を処理できないDeepProbLogとは対照的に、DeepGraphLogはシンボル表現をグラフとして扱い、グラフニューラルネットワーク(GNN)によって処理できる。
本稿では,DeepGraphLogのタスク,遠隔監視による知識グラフ補完,GNN表現性について紹介する。
我々の結果は、DeepGraphLogが既存のNeSyシステムの主要な制限を克服して、複雑なリレーショナル依存関係を効果的にキャプチャすることを示した。
グラフ構造化ドメインへのニューロシンボリックAIの適用性の拡大により、DeepGraphLogは、ニューラルシンボリック統合のためのより表現力があり柔軟なフレームワークを提供する。
関連論文リスト
- Superhypergraph Neural Networks and Plithogenic Graph Neural Networks: Theoretical Foundations [0.0]
ハイパーグラフは、エッジが複数のノードを接続できるようにすることによって伝統的なグラフを拡張し、一方スーパーハイパーグラフは、この概念をさらに複雑な関係を表すように一般化する。
確立されたフレームワークであるグラフニューラルネットワーク(GNN)が先日,ハイパーグラフニューラルネットワーク(HGNN)に拡張された。
本稿では,超HyperGraph Neural Networks(SHGNNs)とPlithogenic Graph Neural Networks(Plithogenic Graph Neural Networks)の理論的基盤を確立する。
論文 参考訳(メタデータ) (2024-12-02T06:33:02Z) - Temporal Spiking Neural Networks with Synaptic Delay for Graph Reasoning [91.29876772547348]
スパイキングニューラルネットワーク(SNN)は、生物学的にインスパイアされたニューラルネットワークモデルとして研究されている。
本稿では,SNNがシナプス遅延と時間符号化とを併用すると,グラフ推論の実行(知識)に長けていることを明らかにする。
論文 参考訳(メタデータ) (2024-05-27T05:53:30Z) - The Role of Foundation Models in Neuro-Symbolic Learning and Reasoning [54.56905063752427]
Neuro-Symbolic AI(NeSy)は、AIシステムの安全なデプロイを保証することを約束している。
ニューラルネットワークとシンボリックコンポーネントを順次トレーニングする既存のパイプラインは、広範なラベリングを必要とする。
新しいアーキテクチャであるNeSyGPTは、生データから象徴的特徴を抽出する視覚言語基盤モデルを微調整する。
論文 参考訳(メタデータ) (2024-02-02T20:33:14Z) - Knowledge Enhanced Graph Neural Networks for Graph Completion [0.0]
Knowledge Enhanced Graph Neural Networks (KeGNN)は、グラフ補完のためのニューラルシンボリックなフレームワークである。
KeGNNは、知識強化レイヤを積み重ねた基盤としてグラフニューラルネットワークで構成されている。
我々はKeGNNを、最先端のグラフニューラルネットワーク、グラフ畳み込みネットワーク、グラフ注意ネットワークの2つと組み合わせてインスタンス化する。
論文 参考訳(メタデータ) (2023-03-27T07:53:43Z) - Transferability Properties of Graph Neural Networks [125.71771240180654]
グラフニューラルネットワーク(GNN)は、中規模グラフでサポートされているデータから表現を学ぶのに成功している。
適度な大きさのグラフ上でGNNを訓練し、それらを大規模グラフに転送する問題について検討する。
その結果, (i) グラフサイズに応じて転送誤差が減少し, (ii) グラフフィルタは非線型性の散乱挙動によってGNNにおいて緩和されるような転送可能性-識別可能性トレードオフを有することがわかった。
論文 参考訳(メタデータ) (2021-12-09T00:08:09Z) - Learning through structure: towards deep neuromorphic knowledge graph
embeddings [0.5906031288935515]
本稿では,知識グラフ推論のための深層グラフ学習アーキテクチャをニューロモルフィックアーキテクチャにマッピングする戦略を提案する。
ランダムかつ未学習のグラフニューラルネットワークが局所的なグラフ構造を保存することができるという知見に基づいて、凍結したニューラルネットワークの浅い知識グラフ埋め込みモデルを構成する。
我々は,従来型のハードウェア上では,性能水準を維持しながら,高速化とメモリの大幅な削減を実現していることを示す。
論文 参考訳(メタデータ) (2021-09-21T18:01:04Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z) - Graph and graphon neural network stability [122.06927400759021]
グラフネットワーク(GNN)は、ネットワークデータの有意義な表現を生成するためにグラフ構造の知識に依存する学習アーキテクチャである。
我々は,GNNの安定性を,グラファイトと呼ばれるカーネルオブジェクトを用いて解析する。
論文 参考訳(メタデータ) (2020-10-23T16:55:56Z) - Graph Structure of Neural Networks [104.33754950606298]
ニューラルネットワークのグラフ構造が予測性能にどのように影響するかを示す。
リレーショナルグラフの"スイートスポット"は、予測性能を大幅に改善したニューラルネットワークにつながる。
トップパフォーマンスニューラルネットワークは、実際の生物学的ニューラルネットワークと驚くほどよく似たグラフ構造を持つ。
論文 参考訳(メタデータ) (2020-07-13T17:59:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。