論文の概要: Context-aware Sparse Spatiotemporal Learning for Event-based Vision
- arxiv url: http://arxiv.org/abs/2508.19806v1
- Date: Wed, 27 Aug 2025 11:48:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.614484
- Title: Context-aware Sparse Spatiotemporal Learning for Event-based Vision
- Title(参考訳): イベントベース視覚のための文脈対応スパース時空間学習
- Authors: Shenqi Wang, Guangzhi Tang,
- Abstract要約: イベントベースのカメラは、ロボット知覚のための有望なパラダイムとして登場し、高時間分解能、高ダイナミックレンジ、動きのぼかしに対する堅牢性といった利点を提供している。
既存のディープラーニングベースのイベント処理手法では、イベントデータのスパースな性質を完全に活用できないことが多い。
入力分布に基づいてニューロンの活性化を動的に制御するコンテキスト認識しきい値処理を導入した新しいフレームワークであるコンテキスト認識スパース時空間学習(CSSL)を提案する。
- 参考スコア(独自算出の注目度): 0.012972287044966184
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Event-based camera has emerged as a promising paradigm for robot perception, offering advantages with high temporal resolution, high dynamic range, and robustness to motion blur. However, existing deep learning-based event processing methods often fail to fully leverage the sparse nature of event data, complicating their integration into resource-constrained edge applications. While neuromorphic computing provides an energy-efficient alternative, spiking neural networks struggle to match of performance of state-of-the-art models in complex event-based vision tasks, like object detection and optical flow. Moreover, achieving high activation sparsity in neural networks is still difficult and often demands careful manual tuning of sparsity-inducing loss terms. Here, we propose Context-aware Sparse Spatiotemporal Learning (CSSL), a novel framework that introduces context-aware thresholding to dynamically regulate neuron activations based on the input distribution, naturally reducing activation density without explicit sparsity constraints. Applied to event-based object detection and optical flow estimation, CSSL achieves comparable or superior performance to state-of-the-art methods while maintaining extremely high neuronal sparsity. Our experimental results highlight CSSL's crucial role in enabling efficient event-based vision for neuromorphic processing.
- Abstract(参考訳): イベントベースのカメラは、ロボット知覚のための有望なパラダイムとして登場し、高時間分解能、高ダイナミックレンジ、動きのぼかしに対する堅牢性といった利点を提供している。
しかし、既存のディープラーニングベースのイベント処理手法では、イベントデータのスパースな性質を完全に活用できず、リソース制約のあるエッジアプリケーションへの統合が複雑になることが多い。
ニューロモルフィックコンピューティングはエネルギー効率の良い代替手段を提供するが、スパイクニューラルネットワークは、オブジェクト検出や光の流れといった複雑なイベントベースの視覚タスクにおいて、最先端のモデルのパフォーマンスに匹敵する。
さらに、ニューラルネットワークにおける高アクティベーション・スペシャリティの実現は依然として困難であり、スペシャリティを誘発する損失項を注意深く手動でチューニングする必要があることが多い。
本稿では,入力分布に基づいてニューロンの活性化を動的に制御するコンテキスト認識型スパース時空間学習(CSSL)を提案する。
イベントベースの物体検出と光フロー推定に応用して、CSSLは、非常に高い神経細胞間隔を維持しながら、最先端の手法に匹敵する、あるいは優れた性能を達成している。
実験の結果,CSSLがニューロモルフィック処理の効率的なイベントベースビジョンを実現する上で重要な役割を担っていることが明らかとなった。
関連論文リスト
- Fractional Spike Differential Equations Neural Network with Efficient Adjoint Parameters Training [63.3991315762955]
スパイキングニューラルネットワーク(SNN)は、生物学的ニューロンからインスピレーションを得て、脳に似た計算の現実的なモデルを作成する。
既存のほとんどのSNNは、マルコフ特性を持つ一階常微分方程式(ODE)によってモデル化された、神経細胞膜電圧ダイナミクスの単一時間定数を仮定している。
本研究では, 膜電圧およびスパイク列車の長期依存性を分数次力学により捉えるフラクタルSPIKE微分方程式ニューラルネットワーク (fspikeDE) を提案する。
論文 参考訳(メタデータ) (2025-07-22T18:20:56Z) - Sparse Convolutional Recurrent Learning for Efficient Event-based Neuromorphic Object Detection [4.362139927929203]
ニューロモルフィックプロセッサ上でのイベントベースの効率的なオブジェクト検出のためのスパースイベントベース効率検出器(SEED)を提案する。
我々はスパース畳み込み再帰学習を導入し、これは再帰処理において92%以上の活性化間隔を達成し、スパースイベントデータに基づく推論のコストを大幅に削減する。
論文 参考訳(メタデータ) (2025-06-16T12:54:27Z) - Spiking Meets Attention: Efficient Remote Sensing Image Super-Resolution with Attention Spiking Neural Networks [57.17129753411926]
従来の人工ニューラルネットワーク(ANN)の代替手段としてスパイキングニューラルネットワーク(SNN)が登場
本稿では,AID,DOTA,DIORなどのリモートセンシングベンチマークにおいて,最先端の性能を実現するSpikeSRを提案する。
論文 参考訳(メタデータ) (2025-03-06T09:06:06Z) - CREST: An Efficient Conjointly-trained Spike-driven Framework for Event-based Object Detection Exploiting Spatiotemporal Dynamics [7.696109414724968]
スパイキングニューラルネットワーク(SNN)は、イベントベースのオブジェクト認識と検出を約束する。
既存のSNNフレームワークは、多くの場合、マルチスケールの時間的特徴を扱うことができず、データの冗長性が向上し、精度が低下する。
我々は、イベントベースのオブジェクト検出を利用するために、結合的にトレーニングされた新しいスパイク駆動フレームワークであるCRESTを提案する。
論文 参考訳(メタデータ) (2024-12-17T04:33:31Z) - Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - LLS: Local Learning Rule for Deep Neural Networks Inspired by Neural Activity Synchronization [6.738409533239947]
従来のバックプロパゲーション(BP)を用いたディープニューラルネットワーク(DNN)のトレーニングは、計算複雑性とエネルギー消費の観点からの課題を提示している。
脳内で観察される神経活動同期現象(LLS)にインスパイアされた新しい局所学習規則を提案する。
LLSは、最大300倍の乗算累積(MAC)演算を減らし、BPのメモリ要求の半分で同等のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-05-24T18:24:24Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Causal Navigation by Continuous-time Neural Networks [108.84958284162857]
本研究では,連続時間ニューラルネットワークを用いた因果表現学習のための理論的,実験的枠組みを提案する。
本手法は,ドローンの視覚制御学習の文脈において,一連の複雑なタスクにおいて評価する。
論文 参考訳(メタデータ) (2021-06-15T17:45:32Z) - Object-based Illumination Estimation with Rendering-aware Neural
Networks [56.01734918693844]
個々の物体とその局所画像領域のRGBD外観から高速環境光推定手法を提案する。
推定照明により、仮想オブジェクトは実際のシーンと一貫性のあるシェーディングでARシナリオでレンダリングできる。
論文 参考訳(メタデータ) (2020-08-06T08:23:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。