論文の概要: Symbolic Feedforward Networks for Probabilistic Finite Automata: Exact Simulation and Learnability
- arxiv url: http://arxiv.org/abs/2509.10034v1
- Date: Fri, 12 Sep 2025 07:57:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-15 16:03:08.011484
- Title: Symbolic Feedforward Networks for Probabilistic Finite Automata: Exact Simulation and Learnability
- Title(参考訳): 確率的有限オートマタのための記号型フィードフォワードネットワーク:厳密なシミュレーションと学習性
- Authors: Sahil Rajesh Dhayalkar,
- Abstract要約: 確率的有限オートマトンは、シンボルフィードフォワードニューラルネットワークを用いて正確にシミュレートできることを示す。
これらの記号シミュレータは表現性だけでなく学習性にも優れることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a formal and constructive theory showing that probabilistic finite automata (PFAs) can be exactly simulated using symbolic feedforward neural networks. Our architecture represents state distributions as vectors and transitions as stochastic matrices, enabling probabilistic state propagation via matrix-vector products. This yields a parallel, interpretable, and differentiable simulation of PFA dynamics using soft updates-without recurrence. We formally characterize probabilistic subset construction, $\varepsilon$-closure, and exact simulation via layered symbolic computation, and prove equivalence between PFAs and specific classes of neural networks. We further show that these symbolic simulators are not only expressive but learnable: trained with standard gradient descent-based optimization on labeled sequence data, they recover the exact behavior of ground-truth PFAs. This learnability, formalized in Proposition 5.1, is the crux of this work. Our results unify probabilistic automata theory with neural architectures under a rigorous algebraic framework, bridging the gap between symbolic computation and deep learning.
- Abstract(参考訳): 本稿では,確率的有限オートマトン (PFA) を記号的フィードフォワードニューラルネットワークを用いて正確にシミュレートできることを示す形式的・構成的理論を提案する。
我々のアーキテクチャは、状態分布をベクトルとして表現し、遷移を確率行列として表現し、行列ベクトル積による確率的状態伝播を可能にする。
これにより、ソフト更新を伴わない再帰を用いたPFAダイナミクスの並列かつ解釈可能で微分可能なシミュレーションが得られる。
我々は,確率的部分集合の構成,$\varepsilon$-closure,および層状記号計算による正確なシミュレーションを公式に特徴付け,PFAとニューラルネットワークの特定のクラスとの等価性を証明する。
さらに、これらの記号シミュレータは表現性だけでなく学習性にも優れており、ラベル付きシーケンスデータに基づいて標準勾配勾配勾配に基づく最適化を訓練し、基幹PFAの正確な挙動を復元する。
この学習性は命題5.1で定式化され、この研究の要点である。
この結果は、厳密な代数的枠組みの下で、確率論的オートマトン理論をニューラルネットワークと統合し、記号計算とディープラーニングのギャップを埋めるものである。
関連論文リスト
- Neural Networks as Universal Finite-State Machines: A Constructive Feedforward Simulation Framework for NFAs [0.0]
この研究は、象徴的オートマトン理論と現代のニューラルアーキテクチャの新たなブリッジを確立する。
フィードフォワードネットワークは正確で、解釈可能で、訓練可能なシンボル計算を行うことができることを示す。
論文 参考訳(メタデータ) (2025-05-30T01:18:35Z) - Neural Networks as Universal Finite-State Machines: A Constructive Deterministic Finite Automaton Theory [0.0]
我々は、ユニバーサル有限状態マシン(N-FSM)としてフィードフォワードニューラルネットワークを確立する。
我々の結果は、有限深度ReLUとしきい値ネットワークが決定論的有限オートマトン(DFAs)を正確にシミュレートできることを証明している。
固定深度フィードフォワードネットワークは、メモリを必要とする非正規言語を認識できない。
論文 参考訳(メタデータ) (2025-05-16T21:01:34Z) - Discrete, compositional, and symbolic representations through attractor dynamics [51.20712945239422]
我々は,思考の確率的言語(PLoT)に似た認知過程をモデル化するために,アトラクタダイナミクスを記号表現と統合した新しいニューラルシステムモデルを導入する。
我々のモデルは、連続表現空間を、事前定義されたプリミティブに頼るのではなく、教師なし学習を通じて、記号系の意味性と構成性の特徴を反映する、記号列に対応する引き付け状態を持つ離散盆地に分割する。
このアプローチは、認知操作の複雑な双対性を反映したより包括的なモデルを提供する、AIにおける表現力の証明された神経弁別可能な基質であるニューラルダイナミクスを通じて、シンボル処理とサブシンボル処理の両方を統合する統一的なフレームワークを確立する。
論文 参考訳(メタデータ) (2023-10-03T05:40:56Z) - A Recursive Bateson-Inspired Model for the Generation of Semantic Formal
Concepts from Spatial Sensory Data [77.34726150561087]
本稿では,複雑な感覚データから階層構造を生成するための記号のみの手法を提案する。
このアプローチは、概念や概念の創始の鍵としてのバテソンの差異の概念に基づいている。
このモデルは、トレーニングなしでかなりリッチだが人間に読まれる概念表現を生成することができる。
論文 参考訳(メタデータ) (2023-07-16T15:59:13Z) - Amortised Likelihood-free Inference for Expensive Time-series Simulators
with Signatured Ratio Estimation [1.675857332621569]
自然科学と社会科学の複雑な力学のシミュレーションモデルでは、一般に、抽出可能な可能性関数が欠如している。
機械学習の最近の進歩は、他の難解な可能性関数を推定するための新しいアルゴリズムを導入している。
最近導入されたシグネチャカーネルに基づくパスシグネチャを用いたシーケンシャルデータのためのカーネル分類器を提案する。
論文 参考訳(メタデータ) (2022-02-23T15:59:34Z) - Mitigating Performance Saturation in Neural Marked Point Processes:
Architectures and Loss Functions [50.674773358075015]
本稿では,グラフ畳み込み層のみを利用するGCHPという単純なグラフベースのネットワーク構造を提案する。
我々は,GCHPがトレーニング時間を大幅に短縮し,時間間確率仮定による確率比損失がモデル性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2021-07-07T16:59:14Z) - Predictive Coding Approximates Backprop along Arbitrary Computation
Graphs [68.8204255655161]
我々は、コア機械学習アーキテクチャを予測的符号化に翻訳する戦略を開発する。
私たちのモデルは、挑戦的な機械学習ベンチマークのバックプロップと同等に機能します。
本手法は,ニューラルネットワークに標準機械学習アルゴリズムを直接実装できる可能性を高める。
論文 参考訳(メタデータ) (2020-06-07T15:35:47Z) - Formal Synthesis of Lyapunov Neural Networks [61.79595926825511]
本稿では,リアプノフ関数の自動合成法を提案する。
我々は,数値学習者と記号検証器が相互作用して,確実に正しいリアプノフニューラルネットワークを構築する,反例誘導方式を採用する。
提案手法は,Lyapunov関数を他の手法よりも高速かつ広い空間領域で合成する。
論文 参考訳(メタデータ) (2020-03-19T17:21:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。