論文の概要: Memory-DD: A Low-Complexity Dendrite-Inspired Neuron for Temporal Prediction Tasks
- arxiv url: http://arxiv.org/abs/2512.04094v1
- Date: Thu, 20 Nov 2025 12:03:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-07 19:06:32.434535
- Title: Memory-DD: A Low-Complexity Dendrite-Inspired Neuron for Temporal Prediction Tasks
- Title(参考訳): Memory-DD : 低複雑さデンドライト誘発ニューロンの時間的予測課題への応用
- Authors: Dongjian Yang, Xiaoyuan Li, Chuanmei Xi, Ye Sun, Gang Liu,
- Abstract要約: 既存のデンドライトにインスパイアされたニューロンは、主に静的データのために設計されている。
メモリ-DDは、非線形活性化機能を持たない2つのデンドライト誘発ニューロン群からなる。
結果は、メモリ-DDが18の時間分類ベンチマークデータセットで平均89.41%の精度を達成することを示している。
- 参考スコア(独自算出の注目度): 3.9564350814920286
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Dendrite-inspired neurons have been widely used in tasks such as image classification due to low computational complexity and fast inference speed. Temporal data prediction, as a key machine learning task, plays a key role in real-time scenarios such as sensor data analysis, financial forecasting, and urban traffic management. However, existing dendrite-inspired neurons are mainly designed for static data. Studies on capturing dynamic features and modeling long-term dependencies in temporal sequences remain limited. Efficient architectures specifically designed for temporal sequence prediction are still lacking. In this paper, we propose Memory-DD, a low-complexity dendrite-inspired neuron model. Memory-DD consists of two dendrite-inspired neuron groups that contain no nonlinear activation functions but can still realize nonlinear mappings. Compared with traditional neurons without dendritic functions, Memory-DD requires only two neuron groups to extract logical relationships between features in input sequences. This design effectively captures temporal dependencies and is suitable for both classification and regression tasks on sequence data. Experimental results show that Memory-DD achieves an average accuracy of 89.41% on 18 temporal classification benchmark datasets, outperforming LSTM by 4.25%. On 9 temporal regression datasets, it reaches comparable performance to LSTM, while using only 50% of the parameters and reducing computational complexity (FLOPs) by 27.7%. These results demonstrate that Memory-DD successfully extends the low-complexity advantages of dendrite-inspired neurons to temporal prediction, providing a low-complexity and efficient solution for time-series data processing.
- Abstract(参考訳): デンドライトにインスパイアされたニューロンは、計算の複雑さが低く、推論速度が速いため、画像分類などのタスクで広く利用されている。
時系列データ予測は、重要な機械学習タスクとして、センサデータ分析、財務予測、都市交通管理といったリアルタイムシナリオにおいて重要な役割を果たす。
しかし、既存のデンドライトにインスパイアされたニューロンは、主に静的データのために設計されている。
時間的シーケンスにおける動的な特徴のキャプチャと長期的依存関係のモデリングに関する研究は、まだ限られている。
時間的シーケンス予測に特化して設計された効率的なアーキテクチャはまだ不足している。
本稿では,低複雑さデンドライト誘発ニューロンモデルであるMemory-DDを提案する。
メモリDDは2つのデンドライトにインスパイアされたニューロン群からなり、非線形活性化関数は含まないが、非線形マッピングを実現することができる。
樹状細胞機能を持たない従来のニューロンと比較して、メモリDDは入力配列の特徴間の論理的関係を抽出するために2つのニューロングループしか必要としない。
この設計は、時間的依存を効果的に捉え、シーケンスデータの分類と回帰の両方に適している。
実験の結果、メモリ-DDは18の時間分類ベンチマークデータセットで平均89.41%の精度を達成し、LSTMを4.25%上回った。
9つの時間回帰データセットでは、LSTMに匹敵するパフォーマンスに到達し、パラメータの50%しか使用せず、計算複雑性(FLOP)を27.7%削減した。
これらの結果から, メモリ-DDは樹状突起誘発ニューロンの低複雑さの利点を時間的予測にまで拡張し, 時系列データ処理の低複雑さで効率的なソリューションを提供することを示した。
関連論文リスト
- Delays in Spiking Neural Networks: A State Space Model Approach [2.309307613420651]
スパイキングニューラルネットワーク(SNN)は、時間的データを処理するのに適した、生物学的にインスパイアされたイベント駆動モデルである。
本稿では,SNNに遅延を組み込むための一般的なフレームワークを提案する。
提案手法は,計算効率を保ちながら,既存の遅延ベースSNNの性能と一致していることを示す。
論文 参考訳(メタデータ) (2025-12-01T17:26:21Z) - Dendritic Resonate-and-Fire Neuron for Effective and Efficient Long Sequence Modeling [66.0841376808143]
樹状共振器(RF)ニューロンは入力信号から効率的に周波数を抽出し、スパイク列車に符号化することができる。
RFニューロンは、複雑なタスクにおけるエネルギー効率とトレーニング速度のトレードオフとして、有効なメモリ容量が限られている。
本稿では,複数の共振器とソマアーキテクチャを明示的に組み込んだDdendritic Resonate-and-Fireモデルを提案する。
論文 参考訳(メタデータ) (2025-09-21T18:15:45Z) - Fractional Spike Differential Equations Neural Network with Efficient Adjoint Parameters Training [63.3991315762955]
スパイキングニューラルネットワーク(SNN)は、生物学的ニューロンからインスピレーションを得て、脳に似た計算の現実的なモデルを作成する。
既存のほとんどのSNNは、マルコフ特性を持つ一階常微分方程式(ODE)によってモデル化された、神経細胞膜電圧ダイナミクスの単一時間定数を仮定している。
本研究では, 膜電圧およびスパイク列車の長期依存性を分数次力学により捉えるフラクタルSPIKE微分方程式ニューラルネットワーク (fspikeDE) を提案する。
論文 参考訳(メタデータ) (2025-07-22T18:20:56Z) - Deep-Unrolling Multidimensional Harmonic Retrieval Algorithms on Neuromorphic Hardware [78.17783007774295]
本稿では,高精度かつエネルギー効率の高い単発多次元高調波検索のための変換に基づくニューロモルフィックアルゴリズムの可能性について検討する。
複雑な値の畳み込み層と活性化をスパイクニューラルネットワーク(SNN)に変換する新しい手法を開発した。
変換されたSNNは、元のCNNに比べて性能が低下し、ほぼ5倍の電力効率を実現している。
論文 参考訳(メタデータ) (2024-12-05T09:41:33Z) - PRES: Toward Scalable Memory-Based Dynamic Graph Neural Networks [22.47336262812308]
メモリベースの動的グラフニューラルネットワーク(MDGNN)は、動的グラフニューラルネットワークのファミリーであり、メモリモジュールを利用して、長期の時間的依存関係を抽出、抽出、抽出する。
本稿では,時間的バッチサイズが大きいMDGNNの訓練における時間的不連続性に着目し,大規模MDGNNの効率的な訓練について検討する。
論文 参考訳(メタデータ) (2024-02-06T01:34:56Z) - The Expressive Leaky Memory Neuron: an Efficient and Expressive Phenomenological Neuron Model Can Solve Long-Horizon Tasks [64.08042492426992]
本稿では,脳皮質ニューロンの生物学的モデルであるExpressive Memory(ELM)ニューロンモデルを紹介する。
ELMニューロンは、上記の入力-出力関係を1万以下のトレーニング可能なパラメータと正確に一致させることができる。
本稿では,Long Range Arena(LRA)データセットなど,時間構造を必要とするタスクで評価する。
論文 参考訳(メタデータ) (2023-06-14T13:34:13Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。