論文の概要: SAEN-BGS: Energy-Efficient Spiking AutoEncoder Network for Background Subtraction
- arxiv url: http://arxiv.org/abs/2505.07336v1
- Date: Mon, 12 May 2025 08:21:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.309827
- Title: SAEN-BGS: Energy-Efficient Spiking AutoEncoder Network for Background Subtraction
- Title(参考訳): SAEN-BGS:バックグラウンドサブトラクションのためのエネルギー効率の良いスパイクオートエンコーダネットワーク
- Authors: Zhixuan Zhang, Xiaopeng Li, Qi Liu,
- Abstract要約: 我々は、前景と背景の分離を強化するために、スパイキングオートエンコーダネットワークSAEN-BGSを開発した。
エネルギー効率の向上を図るために, 新たな自己蒸留スパイク指導学習法を導入し, 消費電力を削減した。
CDnet-2014 および DAVIS-2016 データセットで行った広範囲な実験において,本手法はより優れたセグメンテーション性能を示す。
- 参考スコア(独自算出の注目度): 10.91463069560013
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Background subtraction (BGS) is utilized to detect moving objects in a video and is commonly employed at the onset of object tracking and human recognition processes. Nevertheless, existing BGS techniques utilizing deep learning still encounter challenges with various background noises in videos, including variations in lighting, shifts in camera angles, and disturbances like air turbulence or swaying trees. To address this problem, we design a spiking autoencoder network, termed SAEN-BGS, based on noise resilience and time-sequence sensitivity of spiking neural networks (SNNs) to enhance the separation of foreground and background. To eliminate unnecessary background noise and preserve the important foreground elements, we begin by creating the continuous spiking conv-and-dconv block, which serves as the fundamental building block for the decoder in SAEN-BGS. Moreover, in striving for enhanced energy efficiency, we introduce a novel self-distillation spiking supervised learning method grounded in ANN-to-SNN frameworks, resulting in decreased power consumption. In extensive experiments conducted on CDnet-2014 and DAVIS-2016 datasets, our approach demonstrates superior segmentation performance relative to other baseline methods, even when challenged by complex scenarios with dynamic backgrounds.
- Abstract(参考訳): バックグラウンドサブトラクション(BGS)は動画中の移動物体を検出するために使用され、物体追跡と人間の認識プロセスの開始時に一般的に使用される。
それでも、ディープラーニングを利用した既存のBGS技術は、照明のバリエーション、カメラアングルのシフト、空気の乱れや揺れ木などの乱れなど、様々な背景ノイズによる課題に直面している。
そこで我々は,SNN(Sping Neural Network)のノイズレジリエンスと時系列感度に基づいて,SAEN-BGSと呼ばれるスパイキングオートエンコーダネットワークを設計し,前景と背景の分離を強化する。
不要なバックグラウンドノイズを排除し、重要な前景要素を保存するために、SAEN-BGSのデコーダの基本的なビルディングブロックとして機能する連続スパイクコンブ・アンド・ドコンブブロックを作成する。
さらに、エネルギー効率の向上を図るために、ANN-to-SNNフレームワークを基盤とした新しい自己蒸留スパイク教師付き学習手法を導入し、消費電力を削減した。
本研究は,CDnet-2014およびDAVIS-2016データセットにおいて,動的背景を持つ複雑なシナリオに挑戦しても,他のベースライン手法と比較して優れたセグメンテーション性能を示す。
関連論文リスト
- Transfer Learning-Based Deep Residual Learning for Speech Recognition in Clean and Noisy Environments [2.1892046440619626]
本稿では, クリーン環境とノイズ環境の両方において, ASRシステムにロバストなニューラル機能を組み込んだ新しいフレームワークを提案する。
実験の結果,畳み込みニューラルネットワーク(CNN)や長期記憶(LSTM)と比較して認識精度が大幅に向上した。
論文 参考訳(メタデータ) (2025-05-02T23:42:27Z) - Enhanced Neuromorphic Semantic Segmentation Latency through Stream Event [0.0]
フレームベースの視覚センサーで最適なセマンティックセグメンテーションを実現することは、UAVや自動運転車のようなリアルタイムシステムにとって大きな課題となる。
イベントベースのカメラにインスパイアされたセンサーからのイベントストリームを活用し、シーンの変化に応じてイベントをトリガーします。
我々は、この事象情報を利用して、低エネルギー消費で知られているバイオインスパイアされたコンピューティングパラダイムであるスパイキングニューラルネットワーク(SNN)を用いて、セマンティックセグメンテーションタスクを解決する。
論文 参考訳(メタデータ) (2025-02-26T09:43:18Z) - Learning A Spiking Neural Network for Efficient Image Deraining [20.270365030042623]
ESDNetと呼ばれる効率の良いスパイクレイニングネットワークを提案する。
我々の研究は、雨のピクセル値がSNNのスパイク信号の強度を高めるという観測に動機づけられている。
トレーニングの課題を克服するために,モデルを直接トレーニングするための勾配プロキシ戦略を導入する。
論文 参考訳(メタデータ) (2024-05-10T07:19:58Z) - Rethinking Transformer-Based Blind-Spot Network for Self-Supervised Image Denoising [94.09442506816724]
BSN(Blind-spot Network)は、自己教師付き画像復調(SSID)におけるニューラルネットワークアーキテクチャとして広く使われている。
本研究では,Transformer ベースの Blind-Spot Network (TBSN) を構築した。
論文 参考訳(メタデータ) (2024-04-11T15:39:10Z) - Offloading Deep Learning Powered Vision Tasks from UAV to 5G Edge Server
with Denoising [7.26437825413781]
無人航空機から遠隔サーバーに計算上重いタスクをオフロードすることは、バッテリー寿命を向上し、リソースの要求を減らすのに役立ちます。
ディープラーニングベースのコンピュータビジョンタスク(オブジェクトセグメンテーションやオブジェクト検出など)は計算的に重いアルゴリズムであり、大きなメモリと計算能力を必要とする。
多くのUAVは、そのようなアルゴリズムの(事前訓練された)オフザシェルフバージョンを使用している。そのようなパワーハングリーアルゴリズムをリモートサーバにオフロードすることで、UAVの省電力に寄与する可能性がある。
論文 参考訳(メタデータ) (2023-02-03T20:33:44Z) - Multi-stage image denoising with the wavelet transform [125.2251438120701]
深部畳み込みニューラルネットワーク(Deep Convolutional Neural Network, CNN)は、正確な構造情報を自動マイニングすることで、画像の復調に使用される。
動的畳み込みブロック(DCB)、2つのカスケードウェーブレット変換および拡張ブロック(WEB)、残留ブロック(RB)の3段階を経由した、MWDCNNによるCNNの多段階化を提案する。
論文 参考訳(メタデータ) (2022-09-26T03:28:23Z) - Practical Blind Image Denoising via Swin-Conv-UNet and Data Synthesis [148.16279746287452]
本研究では,残差畳み込み層の局所モデリング能力とスウィントランスブロックの非局所モデリング能力を組み込むスウィンコンブブロックを提案する。
トレーニングデータ合成のために,異なる種類のノイズを考慮した実用的なノイズ劣化モデルの設計を行う。
AGWN除去と実画像復号化の実験は、新しいネットワークアーキテクチャ設計が最先端の性能を達成することを実証している。
論文 参考訳(メタデータ) (2022-03-24T18:11:31Z) - Neuromorphic Camera Denoising using Graph Neural Network-driven
Transformers [3.805262583092311]
ニューロモルフィック・ビジョン(Neuromorphic vision)は、コンピュータビジョンコミュニティのパラダイムシフトを引き起こしたバイオインスパイアされた技術である。
ニューロモルフィックカメラは、かなりの量の計測ノイズに悩まされている。
このノイズは、ニューロモルフィック事象に基づく知覚とナビゲーションアルゴリズムの性能を劣化させる。
論文 参考訳(メタデータ) (2021-12-17T18:57:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。