論文の概要: SeqXFilter: A Memory-efficient Denoising Filter for Dynamic Vision
Sensors
- arxiv url: http://arxiv.org/abs/2006.01687v1
- Date: Tue, 2 Jun 2020 15:04:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 01:07:10.259943
- Title: SeqXFilter: A Memory-efficient Denoising Filter for Dynamic Vision
Sensors
- Title(参考訳): seqxfilter: 動的視覚センサのためのメモリ効率のよいデノージングフィルタ
- Authors: Shasha Guo, Lei Wang, Xiaofan Chen, Limeng Zhang, Ziyang Kang, Weixia
Xu
- Abstract要約: ニューロモルフィック事象ベースの視覚センサ(DVS)は、フレームベースの撮像センサーよりもはるかに高速で、高い範囲を有する。
それらは望ましくないバックグラウンドアクティビティ(BA)イベントに敏感である。
過去のウィンドウのみを有する動的時間相関フィルタであるemphXSeqを提案する。
- 参考スコア(独自算出の注目度): 2.990201089072207
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neuromorphic event-based dynamic vision sensors (DVS) have much faster
sampling rates and a higher dynamic range than frame-based imaging sensors.
However, they are sensitive to background activity (BA) events that are
unwanted. There are some filters for tackling this problem based on
spatio-temporal correlation. However, they are either memory-intensive or
computing-intensive. We propose \emph{SeqXFilter}, a spatio-temporal
correlation filter with only a past event window that has an O(1) space
complexity and has simple computations. We explore the spatial correlation of
an event with its past few events by analyzing the distribution of the events
when applying different functions on the spatial distances. We find the best
function to check the spatio-temporal correlation for an event for
\emph{SeqXFilter}, best separating real events and noise events. We not only
give the visual denoising effect of the filter but also use two metrics for
quantitatively analyzing the filter's performance. Four neuromorphic
event-based datasets, recorded from four DVS with different output sizes, are
used for validation of our method. The experimental results show that
\emph{SeqXFilter} achieves similar performance as baseline NNb filters, but
with extremely small memory cost and simple computation logic.
- Abstract(参考訳): ニューロモルフィックイベントベースのダイナミックビジョンセンサー(DVS)は、フレームベースのイメージングセンサよりもサンプリング速度がはるかに速く、ダイナミックレンジが高い。
しかし、それらは望まないバックグラウンドアクティビティ(ba)イベントに敏感である。
時空間相関に基づくこの問題に取り組むフィルタはいくつか存在する。
しかし、それらはメモリ集約またはコンピューティング集約である。
我々は,O(1)空間の複雑さと単純な計算量を有する過去のイベントウィンドウのみを有する時空間相関フィルタである \emph{SeqXFilter} を提案する。
空間距離に異なる関数を適用する場合の事象分布を解析し,過去数回の事象と事象の空間的相関について検討する。
emph{seqxfilter} のイベントの時空間相関をチェックするのに最適な関数を見つけ、実際のイベントとノイズイベントを最も分離する。
フィルタの視覚的認知効果を与えるだけでなく、2つの指標を用いてフィルタの性能を定量的に分析する。
出力サイズが異なる4つのDVSから記録された4つのニューロモルフィックイベントベースデータセットを用いて,本手法の有効性を検証する。
実験結果から, ベースラインNNbフィルタと同等の性能を示すが, メモリコストが極端に小さく, 計算論理も単純であることがわかった。
関連論文リスト
- Path-adaptive Spatio-Temporal State Space Model for Event-based Recognition with Arbitrary Duration [9.547947845734992]
イベントカメラはバイオインスパイアされたセンサーで、強度の変化を非同期に捉え、イベントストリームを出力する。
本稿では, PAST-Act と呼ばれる新しいフレームワークを提案する。
私たちはまた、コミュニティの利益のために任意の期間で、ArDVS100という名前の分レベルのイベントベースの認識データセットを構築しました。
論文 参考訳(メタデータ) (2024-09-25T14:08:37Z) - Fast Window-Based Event Denoising with Spatiotemporal Correlation
Enhancement [85.66867277156089]
同時にイベントのスタックを扱うウィンドウベースのイベントデノゲーションを提案する。
空間領域では、実世界の事象と雑音を識別するために、最大後部(MAP)を選択する。
我々のアルゴリズムは、イベントノイズを効果的かつ効率的に除去し、下流タスクの性能を向上させることができる。
論文 参考訳(メタデータ) (2024-02-14T15:56:42Z) - Memory-efficient particle filter recurrent neural network for object
localization [53.68402839500528]
本研究では、オブジェクトの局所化問題を解決するために、新しいメモリ効率のリカレントニューラルネットワーク(RNN)アーキテクチャを提案する。
古典的粒子フィルタの概念をGRU RNNアーキテクチャと組み合わせる。
我々の実験では、mePFRNNモデルは、考慮された競合相手よりも正確なローカライゼーションを提供し、訓練されたパラメータを少なくする。
論文 参考訳(メタデータ) (2023-10-02T19:41:19Z) - Dual Memory Aggregation Network for Event-Based Object Detection with
Learnable Representation [79.02808071245634]
イベントベースのカメラはバイオインスパイアされたセンサーで、各ピクセルの明るさ変化を非同期に捉える。
イベントストリームは、正極性と負極性の両方のためにx-y-t座標の格子に分割され、3次元テンソル表現として柱の集合が生成される。
長メモリは適応型convLSTMの隠れ状態に符号化され、短メモリはイベントピラー間の空間的時間的相関を計算することによってモデル化される。
論文 参考訳(メタデータ) (2023-03-17T12:12:41Z) - MFGNet: Dynamic Modality-Aware Filter Generation for RGB-T Tracking [72.65494220685525]
可視データと熱データ間のメッセージ通信を促進するために,新しい動的モダリティ対応フィルタ生成モジュール(MFGNet)を提案する。
我々は、2つの独立ネットワークを持つ動的モダリティ対応フィルタを生成し、その可視フィルタとサーマルフィルタをそれぞれ、対応する入力特徴写像上で動的畳み込み演算を行う。
重閉塞,高速移動,外見による問題に対処するため,新たな方向認識型目標誘導型アテンション機構を活用することで,共同で局所的・グローバル検索を行うことを提案する。
論文 参考訳(メタデータ) (2021-07-22T03:10:51Z) - Equivalence of Correlation Filter and Convolution Filter in Visual
Tracking [10.820122999766713]
相関フィルタは視覚追跡にうまく適用されている。
畳み込みフィルタは通常、画像処理においてぼやけ、研削、エンボス、エッジ検出などに使用される。
論文 参考訳(メタデータ) (2021-05-01T04:05:37Z) - Dynamic Resource-aware Corner Detection for Bio-inspired Vision Sensors [0.9988653233188148]
本稿では,組込みシステム上でリアルタイムにイベントストリームから非同期コーナーを検出するアルゴリズムを提案する。
提案アルゴリズムは,近隣住民の中から最適なコーナー候補を選択することができ,平均実行時間を59パーセント削減することができる。
論文 参考訳(メタデータ) (2020-10-29T12:01:33Z) - Unsupervised Feature Learning for Event Data: Direct vs Inverse Problem
Formulation [53.850686395708905]
イベントベースのカメラは、ピクセルごとの明るさ変化の非同期ストリームを記録する。
本稿では,イベントデータからの表現学習のための単一層アーキテクチャに焦点を当てる。
我々は,最先端手法と比較して,認識精度が最大9%向上したことを示す。
論文 参考訳(メタデータ) (2020-09-23T10:40:03Z) - Learning Spatio-Appearance Memory Network for High-Performance Visual
Tracking [79.80401607146987]
既存のオブジェクトトラッキングは通常、フレーム間の視覚的ターゲットにマッチするバウンディングボックスベースのテンプレートを学習する。
本稿では,局所時間メモリネットワークを備え,正確な時空間対応を学習するセグメンテーションに基づくトラッキングアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-09-21T08:12:02Z) - EBBINNOT: A Hardware Efficient Hybrid Event-Frame Tracker for Stationary
Dynamic Vision Sensors [5.674895233111088]
本稿では,静止型ニューロモルフィックセンサによって記録された物体を検知・追跡するための複合イベントフレーム手法を提案する。
静的DVSの背景除去特性を活用するために,フレーム内のイベントの有無を通知するイベントベースバイナリ画像生成を提案する。
静止DVSベースのトラフィック監視ソリューションが、同時に記録されたRGBフレームベースの方法と比較されるのは、これが初めてである。
論文 参考訳(メタデータ) (2020-05-31T03:01:35Z) - Real-time Classification from Short Event-Camera Streams using
Input-filtering Neural ODEs [17.764474158122038]
イベントベースのカメラは、人間の視覚システムにインスパイアされた、新しくて効率的なセンサーである。
本稿では,DVSカメラからのイベント,強度変化ストリーム,空間座標の直接利用を提案する。
このシーケンスは、新しいエンプレ同期RNN様アーキテクチャ、入力フィルタリングニューラルネットワーク(INODE)の入力として使用される。
論文 参考訳(メタデータ) (2020-04-07T06:58:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。