論文の概要: Ensemble-Based Event Camera Place Recognition Under Varying Illumination
- arxiv url: http://arxiv.org/abs/2509.01968v1
- Date: Tue, 02 Sep 2025 05:17:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.916021
- Title: Ensemble-Based Event Camera Place Recognition Under Varying Illumination
- Title(参考訳): 可変照明下でのアンサンブルによるイベントカメラ位置認識
- Authors: Therese Joseph, Tobias Fischer, Michael Milford,
- Abstract要約: イベントカメラは高いダイナミックレンジと低レイテンシを提供し、高速な動きと挑戦的な照明条件に対する堅牢性を提供する。
本稿では,複数のイベント・ツー・フレーム再構成,VPR特徴抽出器,時間分解能のシーケンスマッチング結果を組み合わせたイベントカメラ位置認識のためのアンサンブルベースのアプローチを提案する。
時間分解能のみを利用する従来のイベントベースのアンサンブル法とは異なり、我々のより広範な融合戦略は、様々な照明条件下でのロバスト性を大幅に向上させる。
- 参考スコア(独自算出の注目度): 15.33833908429706
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Compared to conventional cameras, event cameras provide a high dynamic range and low latency, offering greater robustness to rapid motion and challenging lighting conditions. Although the potential of event cameras for visual place recognition (VPR) has been established, developing robust VPR frameworks under severe illumination changes remains an open research problem. In this paper, we introduce an ensemble-based approach to event camera place recognition that combines sequence-matched results from multiple event-to-frame reconstructions, VPR feature extractors, and temporal resolutions. Unlike previous event-based ensemble methods, which only utilise temporal resolution, our broader fusion strategy delivers significantly improved robustness under varied lighting conditions (e.g., afternoon, sunset, night), achieving a 57% relative improvement in Recall@1 across day-night transitions. We evaluate our approach on two long-term driving datasets (with 8 km per traverse) without metric subsampling, thereby preserving natural variations in speed and stop duration that influence event density. We also conduct a comprehensive analysis of key design choices, including binning strategies, polarity handling, reconstruction methods, and feature extractors, to identify the most critical components for robust performance. Additionally, we propose a modification to the standard sequence matching framework that enhances performance at longer sequence lengths. To facilitate future research, we will release our codebase and benchmarking framework.
- Abstract(参考訳): 従来のカメラと比較して、イベントカメラは高いダイナミックレンジと低レイテンシを提供し、高速な動きと挑戦的な照明条件に対してより堅牢性を提供する。
視覚的位置認識(VPR)のためのイベントカメラの可能性は確立されているが、深刻な照明変化の下で堅牢なVPRフレームワークを開発することは、まだオープンな研究課題である。
本稿では,複数のイベント・ツー・フレーム再構成,VPR特徴抽出器,時間分解能のシーケンスマッチング結果を組み合わせたイベントカメラ位置認識のためのアンサンブルに基づくアプローチを提案する。
時間分解のみを利用する従来のイベントベースのアンサンブル法とは異なり、我々の広範囲な融合戦略は、様々な照明条件(例えば、午後、日没、夜)下でのロバスト性を大幅に向上させ、日中遷移におけるRecall@1の相対的な改善を57%達成します。
本研究では,距離サブサンプリングを伴わない2つの長期運転データセットに対するアプローチを評価した結果,事象密度に影響を及ぼす自然変化と停止期間の保存が可能となった。
また,両立戦略,極性処理,再構成手法,特徴抽出器などの重要な設計選択を包括的に分析し,ロバストな性能を実現する上で最も重要なコンポーネントを同定する。
さらに,より長いシーケンス長での性能を向上させる標準シーケンスマッチングフレームワークの修正を提案する。
今後の研究を容易にするため、コードベースとベンチマークフレームワークをリリースします。
関連論文リスト
- EventAid: Benchmarking Event-aided Image/Video Enhancement Algorithms
with Real-captured Hybrid Dataset [55.12137324648253]
イベントカメラは、ダイナミックレンジとセンサーの速度で従来のフレームベースの撮像センサーよりも有利な、新興のイメージング技術である。
本稿では,5つのイベント支援画像と映像強調タスクに焦点を当てる。
論文 参考訳(メタデータ) (2023-12-13T15:42:04Z) - Event-based Continuous Color Video Decompression from Single Frames [36.4263932473053]
本研究では,静止RGB画像とイベントカメラストリームから連続映像を生成する新しい手法であるContinuityCamを提案する。
提案手法は、連続した長距離動きモデリングとニューラル合成モデルを組み合わせることで、イベント内の任意のタイミングでフレーム予測を可能にする。
論文 参考訳(メタデータ) (2023-11-30T18:59:23Z) - Implicit Event-RGBD Neural SLAM [54.74363487009845]
神経性SLAMは近年顕著な進歩を遂げている。
既存の手法は、非理想的なシナリオにおいて重大な課題に直面します。
本稿では,最初のイベントRGBD暗黙的ニューラルSLAMフレームワークであるEN-SLAMを提案する。
論文 参考訳(メタデータ) (2023-11-18T08:48:58Z) - Revisiting Event-based Video Frame Interpolation [49.27404719898305]
ダイナミックビジョンセンサーやイベントカメラは、ビデオフレームに豊富な補完情報を提供する。
イベントからの光の流れを推定することは、RGB情報より間違いなく困難である。
イベントベースの中間フレーム合成を複数の単純化段階において漸進的に行う分割・対数戦略を提案する。
論文 参考訳(メタデータ) (2023-07-24T06:51:07Z) - Progressively Optimized Local Radiance Fields for Robust View Synthesis [76.55036080270347]
本稿では,1つのカジュアルな映像から大規模シーンのラディアンス場を再構成するアルゴリズムを提案する。
未知のポーズを扱うために、カメラのポーズと放射場を漸進的に推定する。
大規模な非有界シーンを扱うために、時間窓内にフレームで訓練された新しい局所放射場を動的に割り当てる。
論文 参考訳(メタデータ) (2023-03-24T04:03:55Z) - Globally-Optimal Event Camera Motion Estimation [30.79931004393174]
イベントカメラは、HDR条件でよく機能し、時間分解能の高いバイオインスパイアされたセンサーである。
イベントカメラは、非同期ピクセルレベルの変更を測定し、高度に識別されたフォーマットでそれらを返す。
論文 参考訳(メタデータ) (2022-03-08T08:24:22Z) - ESL: Event-based Structured Light [62.77144631509817]
イベントカメラはバイオインスパイアされたセンサーであり、標準的なカメラよりも大きな利点がある。
本稿では,イベントカメラを用いた新しい構造化光システムを提案し,高精度かつ高速な深度センシングの課題に対処する。
論文 参考訳(メタデータ) (2021-11-30T15:47:39Z) - An Asynchronous Kalman Filter for Hybrid Event Cameras [13.600773150848543]
イベントカメラはhdrの視覚情報をぼやけることなく捉えるのに理想的だ。
従来のイメージセンサーは、ゆっくりと変化するシーンの絶対強度を効果的に測定するが、高いダイナミックレンジや素早く変化するシーンでは不十分である。
本稿では,ハイダイナミックレンジシナリオのためのイベントベースビデオ再構成パイプラインを提案する。
論文 参考訳(メタデータ) (2020-12-10T11:24:07Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。