論文の概要: The DeepLog Neurosymbolic Machine
- arxiv url: http://arxiv.org/abs/2508.13697v1
- Date: Tue, 19 Aug 2025 09:58:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.883001
- Title: The DeepLog Neurosymbolic Machine
- Title(参考訳): DeepLog ニューロシンボリックマシン
- Authors: Vincent Derkinderen, Robin Manhaeve, Rik Adriaensen, Lucas Van Praet, Lennert De Smet, Giuseppe Marra, Luc De Raedt,
- Abstract要約: 我々はDeepLogと呼ばれるニューロシンボリックAIの理論的かつ運用的なフレームワークに貢献する。
DeepLogはニューロシンボリックAIのためのビルディングブロックとプリミティブを導入した。
幅広いニューロシンボリック系を表現し、エミュレートすることができる。
- 参考スコア(独自算出の注目度): 13.982917922302502
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We contribute a theoretical and operational framework for neurosymbolic AI called DeepLog. DeepLog introduces building blocks and primitives for neurosymbolic AI that make abstraction of commonly used representations and computational mechanisms used in neurosymbolic AI. DeepLog can represent and emulate a wide range of neurosymbolic systems. It consists of two key components. The first is the DeepLog language for specifying neurosymbolic models and inference tasks. This language consists of an annotated neural extension of grounded first-order logic, and makes abstraction of the type of logic, e.g. boolean, fuzzy or probabilistic, and whether logic is used in the architecture or in the loss function. The second DeepLog component is situated at the computational level and uses extended algebraic circuits as computational graphs. Together these two components are to be considered as a neurosymbolic abstract machine, with the DeepLog language as the intermediate level of abstraction and the circuits level as the computational one. DeepLog is implemented in software, relies on the latest insights in implementing algebraic circuits on GPUs, and is declarative in that it is easy to obtain different neurosymbolic models by making different choices for the underlying algebraic structures and logics. The generality and efficiency of the DeepLog neurosymbolic machine is demonstrated through an experimental comparison between 1) different fuzzy and probabilistic logics, 2) between using logic in the architecture or in the loss function, and 3) between a standalone CPU-based implementation of a neurosymbolic AI system and a DeepLog GPU-based one.
- Abstract(参考訳): 我々はDeepLogと呼ばれるニューロシンボリックAIの理論的かつ運用的なフレームワークに貢献する。
DeepLogでは、ニューロシンボリックAIで一般的に使用される表現と計算メカニズムを抽象化する、ニューロシンボリックAIのためのビルディングブロックとプリミティブを導入している。
DeepLogは、幅広いニューロシンボリックシステムを表現し、エミュレートすることができる。
2つのキーコンポーネントで構成されている。
1つ目は、ニューロシンボリックモデルと推論タスクを指定するためのDeepLog言語である。
この言語は、接地された一階述語論理の注釈付き神経拡張からなり、論理の型、例えばブール、ファジィ、確率を抽象化し、論理がアーキテクチャで使われているか、損失関数で使われているかを決定する。
第2のDeepLogコンポーネントは計算レベルに位置し、拡張代数回路を計算グラフとして使用する。
これら2つのコンポーネントは、DeepLog言語を中間抽象レベルとし、回路レベルを計算機械として、ニューロシンボリック抽象機械と見なすことができる。
DeepLogはソフトウェアで実装されており、GPU上で代数回路を実装する際の最新の知見に依存しており、基礎となる代数構造と論理に対して異なる選択をすることで、異なるニューロシンボリックモデルを簡単に得ることができると宣言されている。
DeepLogニューロシンボリックマシンの汎用性と効率は、実験的な比較によって実証される。
1)異なるファジィ・確率論理
2) アーキテクチャにおける論理の使用と損失関数の相互関係
3) ニューロシンボリックAIシステムのスタンドアロンCPUベースの実装とDeepLog GPUベースの実装の中間である。
関連論文リスト
- Compositional Generalization Across Distributional Shifts with Sparse Tree Operations [77.5742801509364]
我々は、微分可能木機械と呼ばれる統合されたニューロシンボリックアーキテクチャを導入する。
シンボル構造の疎ベクトル表現を用いることで,モデルの効率を大幅に向上する。
より一般的なseq2seq問題に制限されたtree2tree問題以外の適用を可能にする。
論文 参考訳(メタデータ) (2024-12-18T17:20:19Z) - LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z) - Sequence learning in a spiking neuronal network with memristive synapses [0.0]
脳計算の中心にある中核的な概念は、シーケンス学習と予測である。
ニューロモルフィックハードウェアは、脳が情報を処理する方法をエミュレートし、ニューロンとシナプスを直接物理的基質にマッピングする。
シークエンス学習モデルにおける生物学的シナプスの代替としてReRAMデバイスを使用することの可能性について検討する。
論文 参考訳(メタデータ) (2022-11-29T21:07:23Z) - Discourse-Aware Graph Networks for Textual Logical Reasoning [142.0097357999134]
パッセージレベルの論理関係は命題単位間の係り合いまたは矛盾を表す(例、結論文)
論理的推論QAを解くための論理構造制約モデリングを提案し、談話対応グラフネットワーク(DAGN)を導入する。
ネットワークはまず、インラインの談話接続とジェネリック論理理論を利用した論理グラフを構築し、その後、エッジ推論機構を用いて論理関係を進化させ、グラフ機能を更新することで論理表現を学習する。
論文 参考訳(メタデータ) (2022-07-04T14:38:49Z) - Neuromorphic Artificial Intelligence Systems [58.1806704582023]
フォン・ノイマンアーキテクチャと古典的ニューラルネットワークに基づく現代のAIシステムは、脳と比較して多くの基本的な制限がある。
この記事では、そのような制限と、それらが緩和される方法について論じる。
これは、これらの制限が克服されている現在利用可能なニューロモーフィックAIプロジェクトの概要を示す。
論文 参考訳(メタデータ) (2022-05-25T20:16:05Z) - A Neural-Symbolic Approach to Natural Language Understanding [12.752124450670602]
我々はニューラルシンボリックプロセッサ(NSP)と呼ばれるNLUの新しいフレームワークを提案する。
NSPは、ニューラル処理に基づいてアナログ推論を行い、ニューラル処理とシンボリック処理の両方に基づいて論理推論を行う。
ケーススタディとして、質問応答(QA)と自然言語推論(NLI)という2つのNLUタスクの実験を行った。
論文 参考訳(メタデータ) (2022-03-20T14:12:44Z) - NeuralLog: a Neural Logic Language [0.0]
ニューラルネットワークにコンパイルされた第一次論理言語であるNeuralLogを提案する。
NeuralLogの主な目標は、ロジックプログラミングとディープラーニングをブリッジすることだ。
比較したシステムと同じ理論を用いて,neurallogはリンク予測と分類タスクを学習できることを示した。
論文 参考訳(メタデータ) (2021-05-04T12:09:35Z) - Logic Tensor Networks [9.004005678155023]
学習と推論をサポートする神経シンボリック形式論と計算モデルであるLogic Networks(LTN)を提示する。
LTNがいくつかのAIタスクの仕様と計算に一様言語を提供することを示す。
論文 参考訳(メタデータ) (2020-12-25T22:30:18Z) - Neurocoder: Learning General-Purpose Computation Using Stored Neural
Programs [64.56890245622822]
ニューロコーダ(Neurocoder)は、汎用計算機の全く新しいクラスである。
共有可能なモジュール型プログラムのセットから関連するプログラムを構成することで、データ応答性のある方法で“コード”を行う。
モジュールプログラムを学習し、パターンシフトを厳しく処理し、新しいプログラムが学習されると、古いプログラムを記憶する新しい能力を示す。
論文 参考訳(メタデータ) (2020-09-24T01:39:16Z) - On the computational power and complexity of Spiking Neural Networks [0.0]
本研究では, スパイクニューラルネットワークを機械モデルとして導入し, 親しみやすいチューリングマシンとは対照的に, 情報と操作を機械内に共同配置する。
正規問題を導入し、複雑性クラスの階層を定義し、いくつかの最初の完全性結果を提供する。
論文 参考訳(メタデータ) (2020-01-23T10:40:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。