論文の概要: Temporal-Aware Spiking Transformer Hashing Based on 3D-DWT
- arxiv url: http://arxiv.org/abs/2501.06786v1
- Date: Sun, 12 Jan 2025 11:48:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:24:32.374621
- Title: Temporal-Aware Spiking Transformer Hashing Based on 3D-DWT
- Title(参考訳): 3D-DWTに基づく時間認識スパイキング変換器のハッシュ
- Authors: Zihao Mei, Jianhao Li, Bolin Zhang, Chong Wang, Lijun Guo, Guoqi Li, Jiangbo Qian,
- Abstract要約: 階層的な軽量構造を持つ新しい教師付きハッシュ法であるSpkinghashを提案する。
まず、ニューラルネットワーク(SNN)のバイナリ特性に基づいて、階層的な軽量構造を持つSpikehashという新しい教師付きハッシュ手法を提案する。
複数のデータセットの実験により、Spikehashは、少ないエネルギー消費パラメータで最先端の結果を得ることができることを示した。
- 参考スコア(独自算出の注目度): 21.43756642033915
- License:
- Abstract: With the rapid growth of dynamic vision sensor (DVS) data, constructing a low-energy, efficient data retrieval system has become an urgent task. Hash learning is one of the most important retrieval technologies which can keep the distance between hash codes consistent with the distance between DVS data. As spiking neural networks (SNNs) can encode information through spikes, they demonstrate great potential in promoting energy efficiency. Based on the binary characteristics of SNNs, we first propose a novel supervised hashing method named Spikinghash with a hierarchical lightweight structure. Spiking WaveMixer (SWM) is deployed in shallow layers, utilizing a multilevel 3D discrete wavelet transform (3D-DWT) to decouple spatiotemporal features into various low-frequency and high frequency components, and then employing efficient spectral feature fusion. SWM can effectively capture the temporal dependencies and local spatial features. Spiking Self-Attention (SSA) is deployed in deeper layers to further extract global spatiotemporal information. We also design a hash layer utilizing binary characteristic of SNNs, which integrates information over multiple time steps to generate final hash codes. Furthermore, we propose a new dynamic soft similarity loss for SNNs, which utilizes membrane potentials to construct a learnable similarity matrix as soft labels to fully capture the similarity differences between classes and compensate information loss in SNNs, thereby improving retrieval performance. Experiments on multiple datasets demonstrate that Spikinghash can achieve state-of-the-art results with low energy consumption and fewer parameters.
- Abstract(参考訳): ダイナミックビジョンセンサ(DVS)データの急速な増加に伴い、低エネルギーで効率的なデータ検索システムの構築が急務となっている。
ハッシュ学習は、DVSデータ間の距離とハッシュコード間の距離を一致させることのできる最も重要な検索技術の1つである。
スパイクニューラルネットワーク(SNN)はスパイクを通じて情報をエンコードできるため、エネルギー効率を高める大きな可能性を示す。
まず、SNNのバイナリ特性に基づいて、階層的な軽量構造を持つSpkinghashという新しい教師付きハッシュ手法を提案する。
スパイキングウェーブミクサー (SWM) は浅い層に展開され、多重レベル3次元離散ウェーブレット変換(3D-DWT)を用いて、時空間の特徴を様々な低周波成分と高周波成分に分離し、効率的なスペクトル特徴融合を利用する。
SWMは時間的依存関係と局所的な空間的特徴を効果的に捉えることができる。
スパイキング自己認識(SSA)は、より深い層に展開され、グローバルな時空間情報を抽出する。
また、複数の時間ステップで情報を統合して最終的なハッシュコードを生成するSNNのバイナリ特性を利用したハッシュ層を設計する。
さらに,SNN間の類似度差を完全に把握し,SNNにおける情報損失を補うために,膜電位を用いて学習可能な類似度行列をソフトラベルとして構築し,検索性能を向上させる。
複数のデータセットの実験により、Spikehashは低いエネルギー消費と少ないパラメータで最先端の結果を得ることができることが示された。
関連論文リスト
- Spiking Neural Network Accelerator Architecture for Differential-Time Representation using Learned Encoding [0.3749861135832073]
スパイキングニューラルネットワーク(SNN)はエネルギー効率の向上により近年注目を集めている。
SNNを実装する際の2つの重要な疑問は、既存のデータをスパイクトレインにエンコードする方法と、スパイクトレインをハードウェアで効率的に処理する方法である。
本稿では,これらの問題に,学習プロセスにエンコーディングを組み込むことで対処し,ネットワークが重みとともにスパイクエンコーディングを学習できるようにする。
論文 参考訳(メタデータ) (2025-01-14T09:09:08Z) - Efficient Spatio-Temporal Signal Recognition on Edge Devices Using PointLCA-Net [0.45609532372046985]
本稿では、ポイントネットの特徴抽出とインメモリコンピューティング能力と時間信号認識のためのニューロモルフィックシステムのエネルギー効率を組み合わせたアプローチを提案する。
PointNetは、推定とトレーニングの両方において、同等のアプローチよりも高い精度とエネルギー負担を著しく低減します。
論文 参考訳(メタデータ) (2024-11-21T20:48:40Z) - Spiking Tucker Fusion Transformer for Audio-Visual Zero-Shot Learning [30.51005522218133]
音声・視覚ゼロショット学習のための新しいSTFT(Spking Tucker Fusion Transformer)を提案する。
STFTは、異なる時間ステップからの時間的および意味的な情報を活用して、堅牢な表現を生成する。
本稿では,最大と平均のプール操作を組み合わせたグローバルローカルプール(GLP)を提案する。
論文 参考訳(メタデータ) (2024-07-11T02:01:26Z) - Assessing Neural Network Representations During Training Using
Noise-Resilient Diffusion Spectral Entropy [55.014926694758195]
ニューラルネットワークにおけるエントロピーと相互情報は、学習プロセスに関する豊富な情報を提供する。
データ幾何を利用して基礎となる多様体にアクセスし、これらの情報理論測度を確実に計算する。
本研究は,高次元シミュレーションデータにおける固有次元と関係強度の耐雑音性の測定結果である。
論文 参考訳(メタデータ) (2023-12-04T01:32:42Z) - Heterogenous Memory Augmented Neural Networks [84.29338268789684]
ニューラルネットワークのための新しいヘテロジニアスメモリ拡張手法を提案する。
学習可能なメモリトークンをアテンション機構付きで導入することにより、膨大な計算オーバーヘッドを伴わずに性能を効果的に向上させることができる。
In-distriion (ID) と Out-of-distriion (OOD) の両方の条件下での様々な画像およびグラフベースのタスクに対するアプローチを示す。
論文 参考訳(メタデータ) (2023-10-17T01:05:28Z) - Can LSH (Locality-Sensitive Hashing) Be Replaced by Neural Network? [9.940726521176499]
最近の進歩は、ニューラルネットワークが従来のデータ構造を部分的に置き換えることができることを示している。
低次元空間に高次元データをマッピングするために,LLSHと呼ばれる学習局所性に敏感なハッシュ法を提案する。
提案したLLSHは、ハッシュインデックスを学習ベースニューラルネットワークに置き換える可能性を示している。
論文 参考訳(メタデータ) (2023-10-15T11:41:54Z) - Deep Multi-Threshold Spiking-UNet for Image Processing [51.88730892920031]
本稿では,SNN(Spike Neural Networks)とU-Netアーキテクチャを組み合わせた,画像処理のためのスパイキング-UNetの概念を紹介する。
効率的なスパイキング-UNetを実現するためには,スパイクによる高忠実度情報伝播の確保と,効果的なトレーニング戦略の策定という2つの課題に直面する。
実験の結果,画像のセグメンテーションとデノイングにおいて,スパイキングUNetは非スパイキングと同等の性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-07-20T16:00:19Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - Learning to Hash with Graph Neural Networks for Recommender Systems [103.82479899868191]
グラフ表現学習は、大規模に高品質な候補探索をサポートすることに多くの注目を集めている。
ユーザ・イテム相互作用ネットワークにおけるオブジェクトの埋め込みベクトルの学習の有効性にもかかわらず、連続的な埋め込み空間におけるユーザの好みを推測する計算コストは膨大である。
連続的かつ離散的なコードとを協調的に学習するための,単純かつ効果的な離散表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-04T06:59:56Z) - Spatial-Spectral Residual Network for Hyperspectral Image
Super-Resolution [82.1739023587565]
ハイパースペクトル画像超解像のための新しいスペクトル空間残差ネットワーク(SSRNet)を提案する。
提案手法は,2次元畳み込みではなく3次元畳み込みを用いて空間スペクトル情報の探索を効果的に行うことができる。
各ユニットでは空間的・時間的分離可能な3次元畳み込みを用いて空間的・スペクトル的な情報を抽出する。
論文 参考訳(メタデータ) (2020-01-14T03:34:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。