論文の概要: How Many Events do You Need? Event-based Visual Place Recognition Using
Sparse But Varying Pixels
- arxiv url: http://arxiv.org/abs/2206.13673v1
- Date: Tue, 28 Jun 2022 00:24:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-29 13:08:50.959279
- Title: How Many Events do You Need? Event-based Visual Place Recognition Using
Sparse But Varying Pixels
- Title(参考訳): イベントは何件必要ですか?
Sparse but Varying Pixelsを用いたイベントベース視覚位置認識
- Authors: Tobias Fischer and Michael Milford
- Abstract要約: イベントカメラ研究の潜在的な応用の1つは、ロボットのローカライゼーションのための視覚的位置認識である。
事象フレームに蓄積した画素位置における事象数に絶対的な差があることが、位置認識タスクに十分であることを示す。
我々は,Brisbane-Event-VPRデータセットに対する提案手法を,新たに提案した屋内QCR-Event-VPRデータセットとともに屋外運転シナリオで評価した。
- 参考スコア(独自算出の注目度): 29.6328152991222
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event cameras continue to attract interest due to desirable characteristics
such as high dynamic range, low latency, virtually no motion blur, and high
energy efficiency. One of the potential applications of event camera research
lies in visual place recognition for robot localization, where a query
observation has to be matched to the corresponding reference place in the
database. In this letter, we explore the distinctiveness of event streams from
a small subset of pixels (in the tens or hundreds). We demonstrate that the
absolute difference in the number of events at those pixel locations
accumulated into event frames can be sufficient for the place recognition task,
when pixels that display large variations in the reference set are used. Using
such sparse (over image coordinates) but varying (variance over the number of
events per pixel location) pixels enables frequent and computationally cheap
updates of the location estimates. Furthermore, when event frames contain a
constant number of events, our method takes full advantage of the event-driven
nature of the sensory stream and displays promising robustness to changes in
velocity. We evaluate our proposed approach on the Brisbane-Event-VPR dataset
in an outdoor driving scenario, as well as the newly contributed indoor
QCR-Event-VPR dataset that was captured with a DAVIS346 camera mounted on a
mobile robotic platform. Our results show that our approach achieves
competitive performance when compared to several baseline methods on those
datasets, and is particularly well suited for compute- and energy-constrained
platforms such as interplanetary rovers.
- Abstract(参考訳): イベントカメラは、高いダイナミックレンジ、低レイテンシ、事実上動きのぼやきがなく、高エネルギー効率といった望ましい特徴から、引き続き注目を集めている。
イベントカメラ研究の潜在的な応用の1つは、ロボットのローカライゼーションのための視覚的位置認識であり、データベース内の対応する参照場所とクエリ観察を一致させる必要がある。
本文では,少数の画素(数十から数百)からのイベントストリームの特異性について検討する。
本研究では,イベントフレームに蓄積された画素位置におけるイベント数の絶対的な差が,参照集合に大きな変動を示す画素を用いる場合,位置認識タスクに十分であることを示す。
このようなスパース(画像座標上)を用いるが、異なる(画素位置当たりのイベント数の違い)ピクセルを使用することで、位置推定を頻繁かつ計算的に安価に更新することができる。
さらに,イベントフレームが一定回数のイベントを含む場合,センサストリームのイベント駆動特性をフル活用し,速度変化に対して有望なロバスト性を示す。
我々は,Brisbane-Event-VPRデータセットとモバイルロボットプラットフォームに搭載されたDAVIS346カメラを用いて,新たに提案した屋内QCR-Event-VPRデータセットについて検討した。
提案手法は,これらのデータセット上のいくつかのベースライン手法と比較して競争性能が向上し,特に惑星間ローバーのような計算・エネルギー制約のあるプラットフォームに適していることを示す。
関連論文リスト
- Event-to-Video Conversion for Overhead Object Detection [7.744259147081667]
イベントカメラは、特にオブジェクト検出などの複雑なタスクにおいて、下流の画像処理を複雑にする。
本稿では,高密度イベント表現とそれに対応するRGBフレームの間には,大きな差があることを述べる。
このギャップを埋めるために、イベントストリームをグレースケールのビデオに変換するイベント間変換モデルを適用する。
論文 参考訳(メタデータ) (2024-02-09T22:07:39Z) - Exploring Event-based Human Pose Estimation with 3D Event Representations [26.34100847541989]
我々は、Rasterized Event Point Cloud(Ras EPC)とDecoupled Event Voxel(DEV)の2つの3Dイベント表現を紹介した。
Ras EPCは、簡潔な時間スライス内のイベントを同じ位置で集約し、それらの3D属性を統計情報と共に保存し、メモリと計算要求を大幅に削減する。
提案手法は,DHP19公開データセット,MMHPSDデータセット,EV-3DPWデータセットで検証し,誘導駆動シーンデータセットEV-JAADと屋外収集車両によるさらなる定性検証を行った。
論文 参考訳(メタデータ) (2023-11-08T10:45:09Z) - EvDNeRF: Reconstructing Event Data with Dynamic Neural Radiance Fields [80.94515892378053]
EvDNeRFは、イベントデータを生成し、イベントベースの動的NeRFをトレーニングするためのパイプラインである。
NeRFは幾何学ベースの学習可能なレンダリングを提供するが、イベントの以前の作業は静的なシーンの再構築のみを考慮していた。
各種イベントのバッチサイズをトレーニングすることにより、微細な時間解像度でイベントのテスト時間予測を改善することができることを示す。
論文 参考訳(メタデータ) (2023-10-03T21:08:41Z) - EventTransAct: A video transformer-based framework for Event-camera
based action recognition [52.537021302246664]
イベントカメラは、RGBビデオの標準アクション認識と比較して、新しい機会を提供する。
本研究では,最初にイベントフレーム当たりの空間埋め込みを取得するビデオトランスフォーマーネットワーク(VTN)という,計算効率のよいモデルを用いる。
イベントデータのスパースできめ細かい性質にVTNをよりよく採用するために、イベントコントラストロス(mathcalL_EC$)とイベント固有の拡張を設計する。
論文 参考訳(メタデータ) (2023-08-25T23:51:07Z) - On the Generation of a Synthetic Event-Based Vision Dataset for
Navigation and Landing [69.34740063574921]
本稿では,最適な着陸軌道からイベントベースの視覚データセットを生成する手法を提案する。
我々は,惑星と小惑星の自然シーン生成ユーティリティを用いて,月面のフォトリアリスティックな画像のシーケンスを構築した。
パイプラインは500トラジェクトリのデータセットを構築することで,表面特徴の現実的なイベントベース表現を生成することができることを示す。
論文 参考訳(メタデータ) (2023-08-01T09:14:20Z) - Cross-modal Place Recognition in Image Databases using Event-based
Sensors [28.124708490967713]
イベントクエリが与えられたデータベースから正規画像を取得することができる,最初のクロスプラットフォームな視覚的位置認識フレームワークを提案する。
本手法は,ブリスベン-イベント-VPRデータセット上での最先端のフレームベースおよびイベントベース手法に関する有望な結果を示す。
論文 参考訳(メタデータ) (2023-07-03T14:24:04Z) - EV-Catcher: High-Speed Object Catching Using Low-latency Event-based
Neural Networks [107.62975594230687]
イベントカメラが優れており、高速移動物体の衝突位置を正確に推定するアプリケーションを実証する。
イベントデータを低レイテンシでエンコードするために,Binary Event History Image(BEHI)と呼ばれる軽量なイベント表現を導入する。
計算制約のある組込みプラットフォーム上でも最大13m/sの速さで, 異なる場所をターゲットとした球のキャッチにおいて, 81%の成功率を達成することができることを示す。
論文 参考訳(メタデータ) (2023-04-14T15:23:28Z) - Dual Memory Aggregation Network for Event-Based Object Detection with
Learnable Representation [79.02808071245634]
イベントベースのカメラはバイオインスパイアされたセンサーで、各ピクセルの明るさ変化を非同期に捉える。
イベントストリームは、正極性と負極性の両方のためにx-y-t座標の格子に分割され、3次元テンソル表現として柱の集合が生成される。
長メモリは適応型convLSTMの隠れ状態に符号化され、短メモリはイベントピラー間の空間的時間的相関を計算することによってモデル化される。
論文 参考訳(メタデータ) (2023-03-17T12:12:41Z) - Bridging the Gap between Events and Frames through Unsupervised Domain
Adaptation [57.22705137545853]
本稿では,ラベル付き画像とラベル付きイベントデータを用いてモデルを直接訓練するタスク転送手法を提案する。
生成イベントモデルを利用して、イベント機能をコンテンツとモーションに分割します。
われわれのアプローチは、イベントベースのニューラルネットワークのトレーニングのために、膨大な量の既存の画像データセットをアンロックする。
論文 参考訳(メタデータ) (2021-09-06T17:31:37Z) - Learning to Detect Objects with a 1 Megapixel Event Camera [14.949946376335305]
イベントカメラは、高時間精度、低データレート、高ダイナミックレンジで視覚情報を符号化する。
フィールドの新規性のため、多くのビジョンタスクにおけるイベントベースのシステムの性能は、従来のフレームベースのソリューションに比べて依然として低い。
論文 参考訳(メタデータ) (2020-09-28T16:03:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。