論文の概要: DeepDFA: Injecting Temporal Logic in Deep Learning for Sequential Subsymbolic Applications
- arxiv url: http://arxiv.org/abs/2602.03486v1
- Date: Tue, 03 Feb 2026 12:59:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.456152
- Title: DeepDFA: Injecting Temporal Logic in Deep Learning for Sequential Subsymbolic Applications
- Title(参考訳): DeepDFA:シークエンシャルサブシンボリックな応用のためのディープラーニングに時間論理を注入する
- Authors: Elena Umili, Francesco Argenziano, Roberto Capobianco,
- Abstract要約: DeepDFAは、高レベルの時間論理をニューラルアーキテクチャに統合する、ニューロシンボリックなフレームワークである。
我々は,DeepDFAが静的な画像シーケンス分類と,インタラクティブな非マルコフ環境下でのポリシー学習の2つの重要な設定でどのように使用できるかを示す。
- 参考スコア(独自算出の注目度): 2.5234156040689233
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Integrating logical knowledge into deep neural network training is still a hard challenge, especially for sequential or temporally extended domains involving subsymbolic observations. To address this problem, we propose DeepDFA, a neurosymbolic framework that integrates high-level temporal logic - expressed as Deterministic Finite Automata (DFA) or Moore Machines - into neural architectures. DeepDFA models temporal rules as continuous, differentiable layers, enabling symbolic knowledge injection into subsymbolic domains. We demonstrate how DeepDFA can be used in two key settings: (i) static image sequence classification, and (ii) policy learning in interactive non-Markovian environments. Across extensive experiments, DeepDFA outperforms traditional deep learning models (e.g., LSTMs, GRUs, Transformers) and novel neuro-symbolic systems, achieving state-of-the-art results in temporal knowledge integration. These results highlight the potential of DeepDFA to bridge subsymbolic learning and symbolic reasoning in sequential tasks.
- Abstract(参考訳): 深いニューラルネットワークトレーニングに論理的知識を統合することは、特にサブシンボリックな観察を含むシーケンシャルまたは時間的に拡張されたドメインにとって、依然として難しい課題である。
この問題に対処するため,DFA(Deterministic Finite Automata)あるいはムーアマシン(Moore Machines)として表現された高レベルの時間論理をニューラルネットワークに組み込む,ニューロシンボリックなフレームワークであるDeepDFAを提案する。
DeepDFAは、時間的ルールを連続的で微分可能なレイヤとしてモデル化し、サブシンボリックドメインへのシンボリックな知識注入を可能にする。
私たちは、DeepDFAを2つの重要な設定でどのように使用できるかを示します。
(i)静的画像シーケンス分類、及び
(II)対話型非マルコフ環境における政策学習
広範囲にわたる実験において、DeepDFAは従来のディープラーニングモデル(LSTM、GRU、トランスフォーマーなど)と新しいニューロシンボリックシステムより優れ、時間的知識の統合において最先端の結果を達成する。
これらの結果から,DeepDFAがサブシンボリック学習と記号推論を連続的なタスクで橋渡しする可能性が示唆された。
関連論文リスト
- T-ILR: a Neurosymbolic Integration for LTLf [47.316620315732024]
本稿では,時間論理の仕様をシーケンスベースタスクのためのディープラーニングアーキテクチャに直接組み込むニューロシンボリックフレームワークを提案する。
提案手法をT-ILR (Temporal Iterative Local Refinement) と呼ぶ。
論文 参考訳(メタデータ) (2025-08-21T20:24:20Z) - LTLZinc: a Benchmarking Framework for Continual Learning and Neuro-Symbolic Temporal Reasoning [12.599235808369112]
継続的な学習は、時間とともに知識を広げ、以前学んだ概念を忘れることを避けながらスキルを向上させるエージェントに関係する。
ニューロシンボリック人工知能の既存のアプローチのほとんどは、静的シナリオのみに適用されている。
私たちは、さまざまな問題をカバーするデータセットを生成するために使用できるベンチマークフレームワークであるZincを紹介します。
論文 参考訳(メタデータ) (2025-07-23T13:04:13Z) - Neural Networks as Universal Finite-State Machines: A Constructive Deterministic Finite Automaton Theory [0.0]
我々は、ユニバーサル有限状態マシン(N-FSM)としてフィードフォワードニューラルネットワークを確立する。
我々の結果は、有限深度ReLUとしきい値ネットワークが決定論的有限オートマトン(DFAs)を正確にシミュレートできることを証明している。
固定深度フィードフォワードネットワークは、メモリを必要とする非正規言語を認識できない。
論文 参考訳(メタデータ) (2025-05-16T21:01:34Z) - TC-LIF: A Two-Compartment Spiking Neuron Model for Long-Term Sequential
Modelling [54.97005925277638]
潜在的な可能性や危険に関連する感覚的手がかりの同定は、長期間の遅延によって有用な手がかりを分離する無関係な事象によってしばしば複雑になる。
SNN(State-of-the-art spiking Neural Network)は、遠方のキュー間の長期的な時間的依存関係を確立する上で、依然として困難な課題である。
そこで本研究では,T-LIFとよばれる,生物学的にインスパイアされたTwo-compartment Leaky Integrate- and-Fireのスパイキングニューロンモデルを提案する。
論文 参考訳(メタデータ) (2023-08-25T08:54:41Z) - Long Short-term Memory with Two-Compartment Spiking Neuron [64.02161577259426]
LSTM-LIFとよばれる,生物学的にインスパイアされたLong Short-Term Memory Leaky Integrate-and-Fireのスパイキングニューロンモデルを提案する。
実験結果は,時間的分類タスクの多種多様な範囲において,優れた時間的分類能力,迅速な訓練収束,ネットワークの一般化性,LSTM-LIFモデルの高エネルギー化を実証した。
したがって、この研究は、新しいニューロモルフィック・コンピューティング・マシンにおいて、困難な時間的処理タスクを解決するための、無数の機会を開放する。
論文 参考訳(メタデータ) (2023-07-14T08:51:03Z) - DeepSITH: Efficient Learning via Decomposition of What and When Across
Time Scales [0.0]
ニューラルネットワークは、繰り返しニューラルネットワーク(RNN)の爆発/消去勾配問題に悩まされるか、またはパラメータを調整して関連する時間スケール(LSTMなど)を学ぶ必要があります。
本稿では,生物にインスパイアされたスケール不変時史(SITH)モジュールを層間密接な接続で連続的に構成するネットワークであるDeepSITHを紹介する。
SITHモジュールは幾何学的に配置された時間定数で入力に応答し、DeepSITHネットワークは一連の時間スケールに沿って問題を学ぶことができる。
論文 参考訳(メタデータ) (2021-04-09T23:58:14Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。