論文の概要: PredNext: Explicit Cross-View Temporal Prediction for Unsupervised Learning in Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2509.24844v1
- Date: Mon, 29 Sep 2025 14:27:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:20.047965
- Title: PredNext: Explicit Cross-View Temporal Prediction for Unsupervised Learning in Spiking Neural Networks
- Title(参考訳): PredNext:スパイキングニューラルネットワークにおける教師なし学習のための明示的なクロスビュー時間予測
- Authors: Yiting Dong, Jianhao Ding, Zijie Xu, Tong Bu, Zhaofei Yu, Tiejun Huang,
- Abstract要約: Spiking Neural Networks (SNN)は、教師なし表現学習のための自然なプラットフォームを提供する。
現在の監視されていないSNNは、浅いアーキテクチャや局所的な可塑性ルールを採用しており、長期の時間的依存関係をモデル化する能力を制限する。
我々は,横断的なステップ予測とクリップ予測を通じて時間的関係を明示的にモデル化するPredNextを提案する。
- 参考スコア(独自算出の注目度): 70.1286354746363
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking Neural Networks (SNNs), with their temporal processing capabilities and biologically plausible dynamics, offer a natural platform for unsupervised representation learning. However, current unsupervised SNNs predominantly employ shallow architectures or localized plasticity rules, limiting their ability to model long-range temporal dependencies and maintain temporal feature consistency. This results in semantically unstable representations, thereby impeding the development of deep unsupervised SNNs for large-scale temporal video data. We propose PredNext, which explicitly models temporal relationships through cross-view future Step Prediction and Clip Prediction. This plug-and-play module seamlessly integrates with diverse self-supervised objectives. We firstly establish standard benchmarks for SNN self-supervised learning on UCF101, HMDB51, and MiniKinetics, which are substantially larger than conventional DVS datasets. PredNext delivers significant performance improvements across different tasks and self-supervised methods. PredNext achieves performance comparable to ImageNet-pretrained supervised weights through unsupervised training solely on UCF101. Additional experiments demonstrate that PredNext, distinct from forced consistency constraints, substantially improves temporal feature consistency while enhancing network generalization capabilities. This work provides a effective foundation for unsupervised deep SNNs on large-scale temporal video data.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、時間的処理能力と生物学的に妥当なダイナミクスを備え、教師なし表現学習のための自然なプラットフォームを提供する。
しかしながら、現在の監視されていないSNNは、主に浅いアーキテクチャや局所的な塑性規則を採用し、長期の時間的依存関係をモデル化し、時間的特徴の一貫性を維持する能力を制限する。
これにより、意味的に不安定な表現が可能となり、大規模な時間的ビデオデータのための深い教師なしSNNの開発が妨げられる。
我々は,横断的なステップ予測とクリップ予測を通じて時間的関係を明示的にモデル化するPredNextを提案する。
このプラグイン・アンド・プレイモジュールは、多様な自己管理対象とシームレスに統合される。
まず,従来のDVSデータセットよりもはるかに大きいUCF101,HMDB51,MiniKinetics上で,SNN自己教師型学習のための標準ベンチマークを構築した。
PredNextは、さまざまなタスクと自己管理メソッドに対して、大幅なパフォーマンス改善を提供する。
PredNextは、UCF101のみをベースとした教師なしトレーニングを通じて、ImageNetでトレーニングされた教師付きウェイトに匹敵するパフォーマンスを実現している。
PredNextは強制的な一貫性の制約とは別のもので、ネットワークの一般化機能を強化しながら、時間的特徴の一貫性を大幅に改善する。
この研究は、大規模な時間的ビデオデータに基づいて、教師なしのディープSNNに効果的な基盤を提供する。
関連論文リスト
- SpikeSTAG: Spatial-Temporal Forecasting via GNN-SNN Collaboration [16.754715227269525]
スパイキングニューラルネットワーク(SNN)は、時間データの複雑さを捉えるためのユニークなアプローチを提供する。
本稿では,グラフ構造学習とスパイクに基づく時間的処理をシームレスに統合する,新しいSNNアーキテクチャを提案する。
実験の結果、我々のモデルはすべてのデータセットで最先端のSNNベースのiSpikformerを上回ることがわかった。
論文 参考訳(メタデータ) (2025-08-04T05:17:52Z) - Disentangling Spatial and Temporal Learning for Efficient Image-to-Video
Transfer Learning [59.26623999209235]
ビデオの空間的側面と時間的側面の学習を両立させるDiSTを提案する。
DiSTの非絡み合い学習は、大量の事前学習パラメータのバックプロパゲーションを避けるため、非常に効率的である。
5つのベンチマークの大規模な実験は、DiSTが既存の最先端メソッドよりも優れたパフォーマンスを提供することを示す。
論文 参考訳(メタデータ) (2023-09-14T17:58:33Z) - Contextualizing MLP-Mixers Spatiotemporally for Urban Data Forecast at Scale [54.15522908057831]
本稿では,STTD予測を大規模に行うためのコンピュータ・ミクサーの適応版を提案する。
我々の結果は、この単純な効率の良いソリューションが、いくつかのトラフィックベンチマークでテストした場合、SOTAベースラインに匹敵する可能性があることを驚くほど示している。
本研究は, 実世界のSTTD予測において, 簡便な有効モデルの探索に寄与する。
論文 参考訳(メタデータ) (2023-07-04T05:19:19Z) - Temporal Contrastive Learning for Spiking Neural Networks [23.963069990569714]
生物学的にインスパイアされたニューラルネットワーク(SNN)は、低エネルギー消費と時間的情報処理能力のためにかなりの注目を集めている。
本稿では、時間領域情報にコントラスト的監督を組み込むことにより、低レイテンシで高性能なSNNを得る新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-23T10:31:46Z) - Brain-Inspired Spiking Neural Network for Online Unsupervised Time
Series Prediction [13.521272923545409]
連続学習に基づく非教師付きリカレントスパイキングニューラルネットワークモデル(CLURSNN)を提案する。
CLURSNNは、ランダム遅延埋め込み(Random Delay Embedding)を使用して基盤となる動的システムを再構築することで、オンライン予測を行う。
提案手法は,進化するロレンツ63力学系を予測する際に,最先端のDNNモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-04-10T16:18:37Z) - An Unsupervised STDP-based Spiking Neural Network Inspired By
Biologically Plausible Learning Rules and Connections [10.188771327458651]
スパイク刺激依存性可塑性(STDP)は脳の一般的な学習規則であるが、STDPだけで訓練されたスパイクニューラルネットワーク(SNN)は非効率であり、性能が良くない。
我々は適応的なシナプスフィルタを設計し、SNNの表現能力を高めるために適応的なスパイキングしきい値を導入する。
我々のモデルは、MNISTおよびFashionMNISTデータセットにおける教師なしSTDPベースのSNNの最先端性能を実現する。
論文 参考訳(メタデータ) (2022-07-06T14:53:32Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。