論文の概要: Event-based visual place recognition with ensembles of temporal windows
- arxiv url: http://arxiv.org/abs/2006.02826v2
- Date: Thu, 17 Sep 2020 23:23:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 09:42:41.327983
- Title: Event-based visual place recognition with ensembles of temporal windows
- Title(参考訳): 時間窓のアンサンブルを用いたイベントベース視覚位置認識
- Authors: Tobias Fischer and Michael Milford
- Abstract要約: イベントカメラは、低レイテンシと高レンジで連続的なイベントストリームを提供することができるバイオインスパイアされたセンサーである。
我々は,異なる長さの時間ウィンドウを並列に処理する,アンサンブルに基づく新しい手法を開発した。
提案するアンサンブル方式は, 単ウィンドウベースラインや従来のモデルベースアンサンブルよりも大幅に優れていた。
- 参考スコア(独自算出の注目度): 29.6328152991222
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event cameras are bio-inspired sensors capable of providing a continuous
stream of events with low latency and high dynamic range. As a single event
only carries limited information about the brightness change at a particular
pixel, events are commonly accumulated into spatio-temporal windows for further
processing. However, the optimal window length varies depending on the scene,
camera motion, the task being performed, and other factors. In this research,
we develop a novel ensemble-based scheme for combining temporal windows of
varying lengths that are processed in parallel. For applications where the
increased computational requirements of this approach are not practical, we
also introduce a new "approximate" ensemble scheme that achieves significant
computational efficiencies without unduly compromising the original performance
gains provided by the ensemble approach. We demonstrate our ensemble scheme on
the visual place recognition (VPR) task, introducing a new Brisbane-Event-VPR
dataset with annotated recordings captured using a DAVIS346 color event camera.
We show that our proposed ensemble scheme significantly outperforms all the
single-window baselines and conventional model-based ensembles, irrespective of
the image reconstruction and feature extraction methods used in the VPR
pipeline, and evaluate which ensemble combination technique performs best.
These results demonstrate the significant benefits of ensemble schemes for
event camera processing in the VPR domain and may have relevance to other
related processes, including feature tracking, visual-inertial odometry, and
steering prediction in driving.
- Abstract(参考訳): イベントカメラはバイオインスパイアされたセンサーで、低レイテンシと高ダイナミックレンジの連続的なイベントストリームを提供する。
単一のイベントは特定のピクセルの明るさ変化に関する限られた情報しか持たないため、イベントは時空間ウィンドウに蓄積され、さらなる処理が行われる。
しかし、最適な窓の長さはシーン、カメラの動き、実行中のタスク、その他の要因によって異なる。
本研究では,並列に処理される長さの異なる時間窓を組み合わせた新しいアンサンブル方式を提案する。
また,本手法の計算要件の増大が実用的でないアプリケーションに対して,アンサンブル手法による性能向上を損なうことなく,計算効率の大幅な向上を実現する新たな「近似」アンサンブルスキームを導入する。
我々は,視覚的位置認識(VPR)タスクにおけるアンサンブル方式を実証し,DAVIS346カラーイベントカメラで記録した注釈付き記録を備えた新しいブリスベンイベント-VPRデータセットを導入した。
提案手法は,vbrパイプラインで使用される画像再構成法や特徴抽出法に関わらず,従来のモデルベースラインやモデルベースアンサンブルよりも大幅に優れており,どのアンサンブル組み合わせ手法が最適かを評価できる。
これらの結果は,VPR領域におけるイベントカメラ処理におけるアンサンブル方式の意義を示し,特徴追跡,視覚慣性計測,運転時のステアリング予測など他の関連プロセスとの関連性を示した。
関連論文リスト
- ESVO2: Direct Visual-Inertial Odometry with Stereo Event Cameras [33.81592783496106]
イベントベースのビジュアルオドメトリーは、トラッキングとサブプロブレムを並列にマッピングすることを目的としている。
イベントベースのステレオビジュアル慣性オドメトリーシステムを構築した。
論文 参考訳(メタデータ) (2024-10-12T05:35:27Z) - Rethinking Efficient and Effective Point-based Networks for Event Camera Classification and Regression: EventMamba [11.400397931501338]
イベントカメラは、最小限の電力を消費しながら、低レイテンシで高ダイナミックレンジで環境光の変化を効率的に検出する。
イベントデータを処理する現在のアプローチでは、フレームベースの表現に変換することが多い。
Point Cloudは3D処理の一般的な表現であり、イベントカメラのスパースと非同期性に適合するのに適している。
提案するEventMambaは,最先端(SOTA)のフレームベース手法と比較しても,競合的な結果が得られる,効率的かつ効果的なPoint Cloudフレームワークである。
論文 参考訳(メタデータ) (2024-05-09T21:47:46Z) - EventAid: Benchmarking Event-aided Image/Video Enhancement Algorithms
with Real-captured Hybrid Dataset [55.12137324648253]
イベントカメラは、ダイナミックレンジとセンサーの速度で従来のフレームベースの撮像センサーよりも有利な、新興のイメージング技術である。
本稿では,5つのイベント支援画像と映像強調タスクに焦点を当てる。
論文 参考訳(メタデータ) (2023-12-13T15:42:04Z) - Implicit Event-RGBD Neural SLAM [54.74363487009845]
神経性SLAMは近年顕著な進歩を遂げている。
既存の手法は、非理想的なシナリオにおいて重大な課題に直面します。
本稿では,最初のイベントRGBD暗黙的ニューラルSLAMフレームワークであるEN-SLAMを提案する。
論文 参考訳(メタデータ) (2023-11-18T08:48:58Z) - ViR: Towards Efficient Vision Retention Backbones [97.93707844681893]
視覚保持ネットワーク(ViR)と呼ばれる新しいコンピュータビジョンモデルを提案する。
ViRは並列および繰り返しの定式化を持ち、高速推論と並列トレーニングと競合性能の最適なバランスをとる。
我々は,様々なデータセットサイズと様々な画像解像度を用いた広範囲な実験により,ViRの有効性を検証した。
論文 参考訳(メタデータ) (2023-10-30T16:55:50Z) - Revisiting Event-based Video Frame Interpolation [49.27404719898305]
ダイナミックビジョンセンサーやイベントカメラは、ビデオフレームに豊富な補完情報を提供する。
イベントからの光の流れを推定することは、RGB情報より間違いなく困難である。
イベントベースの中間フレーム合成を複数の単純化段階において漸進的に行う分割・対数戦略を提案する。
論文 参考訳(メタデータ) (2023-07-24T06:51:07Z) - Event-Based Frame Interpolation with Ad-hoc Deblurring [68.97825675372354]
本稿では,入力ビデオのアドホックを損なうイベントベースフレームの一般的な手法を提案する。
我々のネットワークは、フレーム上の最先端の手法、単一画像のデブロアリング、および共同作業のデブロアリングを一貫して上回ります。
コードとデータセットは公開されます。
論文 参考訳(メタデータ) (2023-01-12T18:19:00Z) - An Event-based Algorithm for Simultaneous 6-DOF Camera Pose Tracking and Mapping [0.0]
イベントカメラは、各画素位置の強度の変化に基づいて、非同期にコンパクトなビジュアルデータを出力することができる。
我々は、その機能を評価するために、イベントのみのパイプラインの慣性バージョンを提案する。
地図推定が信頼できるならば、同等あるいはより正確な結果が得られることを示す。
論文 参考訳(メタデータ) (2023-01-02T12:16:18Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - A Differentiable Recurrent Surface for Asynchronous Event-Based Data [19.605628378366667]
本研究では,Long Short-Term Memory (LSTM) セルのグリッドであるMatrix-LSTMを提案する。
既存の再構成手法と比較して,学習した事象表面は柔軟性と光フロー推定に優れていた。
N-Carsデータセット上でのイベントベースのオブジェクト分類の最先端性を改善する。
論文 参考訳(メタデータ) (2020-01-10T14:09:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。