論文の概要: Temporal Dynamics Enhancer for Directly Trained Spiking Object Detectors
- arxiv url: http://arxiv.org/abs/2512.02447v1
- Date: Tue, 02 Dec 2025 06:13:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-03 21:04:45.740977
- Title: Temporal Dynamics Enhancer for Directly Trained Spiking Object Detectors
- Title(参考訳): 直接訓練されたスパイキング物体検出器のための時間ダイナミクスエンハンサー
- Authors: Fan Luo, Zeyu Gao, Xinhao Luo, Kai Zhao, Yanfeng Lu,
- Abstract要約: Spiking Neural Networks (SNNs) は人工ニューラルネットワーク (ANNs) のエネルギー効率の良い代替手段として登場した。
既存のSNNは通常、入力を直接複製するか、固定間隔でフレームに集約する。
本稿では、時間情報モデリングのためのSNN能力を強化するために、TDE(Temporal Dynamics Enhancer)を提案する。
- 参考スコア(独自算出の注目度): 8.63325310218971
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking Neural Networks (SNNs), with their brain-inspired spatiotemporal dynamics and spike-driven computation, have emerged as promising energy-efficient alternatives to Artificial Neural Networks (ANNs). However, existing SNNs typically replicate inputs directly or aggregate them into frames at fixed intervals. Such strategies lead to neurons receiving nearly identical stimuli across time steps, severely limiting the model's expressive power, particularly in complex tasks like object detection. In this work, we propose the Temporal Dynamics Enhancer (TDE) to strengthen SNNs' capacity for temporal information modeling. TDE consists of two modules: a Spiking Encoder (SE) that generates diverse input stimuli across time steps, and an Attention Gating Module (AGM) that guides the SE generation based on inter-temporal dependencies. Moreover, to eliminate the high-energy multiplication operations introduced by the AGM, we propose a Spike-Driven Attention (SDA) to reduce attention-related energy consumption. Extensive experiments demonstrate that TDE can be seamlessly integrated into existing SNN-based detectors and consistently outperforms state-of-the-art methods, achieving mAP50-95 scores of 57.7% on the static PASCAL VOC dataset and 47.6% on the neuromorphic EvDET200K dataset. In terms of energy consumption, the SDA consumes only 0.240 times the energy of conventional attention modules.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、脳にインスパイアされた時空間力学とスパイク駆動型計算によって、ニューラルネットワーク(ANN)のエネルギー効率の良い代替手段として登場した。
しかし、既存のSNNは入力を直接複製するか、固定間隔でフレームに集約するのが一般的である。
このような戦略により、ニューロンは時間ステップを通してほぼ同じ刺激を受け、特に物体検出のような複雑なタスクにおいて、モデルの表現力を著しく制限する。
本研究では,時間情報モデリングにおけるSNNの能力を高めるため,TDE(Temporal Dynamics Enhancer)を提案する。
TDEは2つのモジュールから構成される:スパイキングエンコーダ(SE)は時間ステップ毎に多様な入力刺激を生成する。
さらに、AGMが導入した高エネルギー乗算操作を排除するため、注意関連エネルギー消費を減らすためのスパイク駆動注意(SDA)を提案する。
大規模な実験により、TDEは既存のSNNベースの検出器にシームレスに統合でき、静的PASCALVOCデータセットで57.7%、ニューロモルフィックなEvDET200Kデータセットで47.6%のmAP50-95スコアを達成し、常に最先端の手法より優れていることが示されている。
エネルギー消費の面では、SDAは従来の注目モジュールの0.240倍のエネルギーしか消費しない。
関連論文リスト
- Ultra-Low-Latency Spiking Neural Networks with Temporal-Dependent Integrate-and-Fire Neuron Model for Objects Detection [9.928561993466458]
スパイキングニューラルネットワーク(SNN)は、最小消費電力と迅速な推論能力によって特徴付けられる。
本研究では, 不均一なスパイクパターンに起因する残留膜電位の問題を緩和するための遅延スパイク手法を提案する。
提案手法は,より高精度な特徴表現を低段階で実現し,視覚的検出タスクにおいて高い性能と超低レイテンシを実現する。
論文 参考訳(メタデータ) (2025-08-28T03:32:45Z) - SDSNN: A Single-Timestep Spiking Neural Network with Self-Dropping Neuron and Bayesian Optimization [3.939441643960418]
Spiking Neural Networks (SNN)は、生物にインスパイアされた新しい計算モデルである。
SNNは離散スパイク信号を通じて情報を伝達し、計算エネルギー消費を大幅に削減する。
本稿では,1段階の計算エネルギー消費を削減し,精度を向上させるシングルステップSNNを提案する。
論文 参考訳(メタデータ) (2025-08-01T03:41:47Z) - Fractional Spike Differential Equations Neural Network with Efficient Adjoint Parameters Training [63.3991315762955]
スパイキングニューラルネットワーク(SNN)は、生物学的ニューロンからインスピレーションを得て、脳に似た計算の現実的なモデルを作成する。
既存のほとんどのSNNは、マルコフ特性を持つ一階常微分方程式(ODE)によってモデル化された、神経細胞膜電圧ダイナミクスの単一時間定数を仮定している。
本研究では, 膜電圧およびスパイク列車の長期依存性を分数次力学により捉えるフラクタルSPIKE微分方程式ニューラルネットワーク (fspikeDE) を提案する。
論文 参考訳(メタデータ) (2025-07-22T18:20:56Z) - Spiking Meets Attention: Efficient Remote Sensing Image Super-Resolution with Attention Spiking Neural Networks [86.28783985254431]
従来の人工ニューラルネットワーク(ANN)の代替手段としてスパイキングニューラルネットワーク(SNN)が登場
本稿では,AID,DOTA,DIORなどのリモートセンシングベンチマークにおいて,最先端の性能を実現するSpikeSRを提案する。
論文 参考訳(メタデータ) (2025-03-06T09:06:06Z) - STAA-SNN: Spatial-Temporal Attention Aggregator for Spiking Neural Networks [17.328954271272742]
スパイキングニューラルネットワーク (SNN) はその生物学的妥当性とエネルギー効率のために注目されている。
しかしながら、SNNとArtificial Neural Networks(ANN)のパフォーマンスギャップは、SNNの普及を妨げる大きな課題である。
本研究では,空間的依存と時間的依存の両方を動的に対象とする空間的注意アグリゲータSNNフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-04T15:02:32Z) - Towards Low-latency Event-based Visual Recognition with Hybrid Step-wise Distillation Spiking Neural Networks [50.32980443749865]
スパイキングニューラルネットワーク(SNN)は、低消費電力と高い生物性のために大きな注目を集めている。
現在のSNNは、ニューロモルフィックデータセットの正確性とレイテンシのバランスをとるのに苦労している。
ニューロモルフィックデータセットに適したステップワイド蒸留法(HSD)を提案する。
論文 参考訳(メタデータ) (2024-09-19T06:52:34Z) - Masked Spiking Transformer [6.862877794199617]
スパイキングニューラルネットワーク(SNN)とトランスフォーマーは、高エネルギー効率と高性能な性質の可能性を秘めている。
本稿では,SNN と Transformer を組み合わせた ANN-to-SNN 変換手法の利点を活用することを提案する。
本研究では、ランダムスパイク・マスキング(RSM)手法を取り入れた新しいマスケプ・スパイク・トランスフォーマー・フレームワークを導入し、余剰スパイクを発生させ、性能を犠牲にすることなくエネルギー消費を低減させる。
論文 参考訳(メタデータ) (2022-10-03T19:56:09Z) - Temporal Pulses Driven Spiking Neural Network for Fast Object
Recognition in Autonomous Driving [65.36115045035903]
スパイキングニューラルネットワーク(SNN)を用いた生時間パルスで直接物体認識問題に対処する手法を提案する。
各種データセットを用いて評価した結果,提案手法は最先端の手法に匹敵する性能を示しながら,優れた時間効率を実現している。
論文 参考訳(メタデータ) (2020-01-24T22:58:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。