論文の概要: Stream Neural Networks: Epoch-Free Learning with Persistent Temporal State
- arxiv url: http://arxiv.org/abs/2602.22152v1
- Date: Wed, 25 Feb 2026 18:00:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.939928
- Title: Stream Neural Networks: Epoch-Free Learning with Persistent Temporal State
- Title(参考訳): ストリームニューラルネットワーク: 永続的時間状態によるエポックフリーラーニング
- Authors: Amama Pathan,
- Abstract要約: 本稿では,非可逆入力ストリーム用に設計された実行パラダイムであるストリームニューラルネットワーク(StNN)を紹介する。
StNNはストリームネイティブ実行アルゴリズムであるストリームネットワークアルゴリズム(SNA)を通じて動作し、その基本ユニットはストリームニューロンである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most contemporary neural learning systems rely on epoch-based optimization and repeated access to historical data, implicitly assuming reversible computation. In contrast, real-world environments often present information as irreversible streams, where inputs cannot be replayed or revisited. Under such conditions, conventional architectures degrade into reactive filters lacking long-horizon coherence. This paper introduces Stream Neural Networks (StNN), an execution paradigm designed for irreversible input streams. StNN operates through a stream-native execution algorithm, the Stream Network Algorithm (SNA), whose fundamental unit is the stream neuron. Each stream neuron maintains a persistent temporal state that evolves continuously across inputs. We formally establish three structural guarantees: (1) stateless mappings collapse under irreversibility and cannot encode temporal dependencies; (2) persistent state dynamics remain bounded under mild activation constraints; and (3) the state transition operator is contractive for λ < 1, ensuring stable long-horizon execution. Empirical phase-space analysis and continuous tracking experiments validate these theoretical results. The execution principles introduced in this work define a minimal substrate for neural computation under irreversible streaming constraints.
- Abstract(参考訳): 現代のほとんどのニューラルネットワークシステムは、エポックベースの最適化と過去のデータへの繰り返しアクセスに依存しており、暗黙的に可逆計算を仮定している。
対照的に、現実世界の環境はインプットの再生や再考ができない不可逆的なストリームとして情報を提示することが多い。
このような条件下では、従来のアーキテクチャは長い水平コヒーレンスを持たない反応性フィルタに分解される。
本稿では,非可逆入力ストリーム用に設計された実行パラダイムであるストリームニューラルネットワーク(StNN)を紹介する。
StNNはストリームネイティブ実行アルゴリズムであるストリームネットワークアルゴリズム(SNA)を通じて動作し、その基本ユニットはストリームニューロンである。
各ストリームニューロンは持続的な時間状態を保持し、入力間で連続的に進化する。
1)非可逆性の下で崩壊し、時間的依存関係をエンコードできないこと、(2)持続状態のダイナミクスは軽度なアクティベーション制約の下で境界付けられたままであること、(3)状態遷移作用素はλ < 1 に対して収縮性を持ち、安定な長期水平実行を保証すること、の3つの構造的保証を正式に確立する。
経験的位相空間解析と連続追跡実験は、これらの理論結果を検証した。
この研究で導入された実行原理は、不可逆的なストリーミング制約の下でのニューラルネットワークの最小限の基質を定義する。
関連論文リスト
- Unleashing Temporal Capacity of Spiking Neural Networks through Spatiotemporal Separation [67.69345363409835]
スパイキングニューラルネットワーク(SNN)は、時間的処理に自然に適していると考えられており、膜電位の伝播は、コア時間的モデリングメカニズムとして広く見なされている。
我々は, 膜伝播を段階的に段階的に除去する非ステートフル(NS)モデルの設計を行った。
論文 参考訳(メタデータ) (2025-12-05T07:05:53Z) - DeNOTS: Stable Deep Neural ODEs for Time Series [0.99450247450967]
CDEは不規則時系列の時間的進化を処理する方法を提供する。
我々は、NFEの増加とモデルの「深化」のために統合時間地平線を拡大することを提案する。
また、負のフィードバックによって動的を安定化する方法を提案する。
論文 参考訳(メタデータ) (2024-08-15T09:49:37Z) - Uncovering the Missing Pattern: Unified Framework Towards Trajectory
Imputation and Prediction [60.60223171143206]
軌道予測は、観測されたシーケンスから実体運動や人間の行動を理解する上で重要な作業である。
現在の方法では、観測されたシーケンスが完了したと仮定し、欠落した値の可能性を無視する。
本稿では,グラフに基づく条件変動リカレントニューラルネットワーク (GC-VRNN) の統一フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-28T14:27:27Z) - Recurrent Neural Networks for Learning Long-term Temporal Dependencies
with Reanalysis of Time Scale Representation [16.32068729107421]
時間的表現としての忘れ門の解釈は、状態に対する損失の勾配が時間とともに指数関数的に減少するときに有効であると主張する。
本稿では,従来のモデルよりも長い時間スケールを表現できる新しいRNNの構築手法を提案する。
論文 参考訳(メタデータ) (2021-11-05T06:22:58Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Recurrent Neural Networks for Partially Observed Dynamical Systems [0.0]
遅延埋め込みにより、観測されていない状態変数を説明できる。
エラーの明示的な近似を可能にする遅延埋め込みに対するアプローチを提案する。
また,システムサイズに対する第1次近似誤差の依存性も提供する。
論文 参考訳(メタデータ) (2021-09-21T20:15:20Z) - Neural Controlled Differential Equations for Online Prediction Tasks [4.6453787256723365]
我々は,ニューラルCDEは,リアルタイムに予測を行う必要のあるテキストトンライン予測タスクには適さないことを示した。
ここでは、有界性や特異性など、ニューラルCDEのスキームが満たすべきいくつかの理論的条件を特定する。
第2に、これらの条件に対処する新しいスキームの導入を動機付け、特に測定可能性を提供する。
第3に、MIMIC-IV医療データベースからの3つの連続モニタリングタスクに対して、オンラインのNeural CDEモデルを実証的にベンチマークする。
論文 参考訳(メタデータ) (2021-06-21T12:23:45Z) - Neural ODE Processes [64.10282200111983]
NDP(Neural ODE Process)は、Neural ODEの分布によって決定される新しいプロセスクラスである。
我々のモデルは,少数のデータポイントから低次元システムのダイナミクスを捉えることができることを示す。
論文 参考訳(メタデータ) (2021-03-23T09:32:06Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z) - Time Dependence in Non-Autonomous Neural ODEs [74.78386661760662]
時変重みを持つニューラルODEの新しいファミリーを提案する。
我々は、速度と表現能力の両面で、従来のニューラルODEの変形よりも優れていた。
論文 参考訳(メタデータ) (2020-05-05T01:41:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。