論文の概要: NYC-Event-VPR: A Large-Scale High-Resolution Event-Based Visual Place Recognition Dataset in Dense Urban Environments
- arxiv url: http://arxiv.org/abs/2410.21615v1
- Date: Mon, 28 Oct 2024 23:43:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-30 13:40:43.307693
- Title: NYC-Event-VPR: A Large-Scale High-Resolution Event-Based Visual Place Recognition Dataset in Dense Urban Environments
- Title(参考訳): NYC-Event-VPR:高密度都市環境における大規模高分解能イベントに基づく視覚的場所認識データセット
- Authors: Taiyi Pan, Junyang He, Chao Chen, Yiming Li, Chen Feng,
- Abstract要約: 視覚的場所認識(VPR)は、自律ロボットが以前に訪れた場所を識別することを可能にする。
本稿では,ロボットとコンピュータビジョンのコミュニティを対象としたNYC-Event-VPRデータセットを紹介する。
13時間以上のジオタグ付きイベントデータを含み、ニューヨーク市全体で260kmに及ぶ。
- 参考スコア(独自算出の注目度): 14.31777348020994
- License:
- Abstract: Visual place recognition (VPR) enables autonomous robots to identify previously visited locations, which contributes to tasks like simultaneous localization and mapping (SLAM). VPR faces challenges such as accurate image neighbor retrieval and appearance change in scenery. Event cameras, also known as dynamic vision sensors, are a new sensor modality for VPR and offer a promising solution to the challenges with their unique attributes: high temporal resolution (1MHz clock), ultra-low latency (in {\mu}s), and high dynamic range (>120dB). These attributes make event cameras less susceptible to motion blur and more robust in variable lighting conditions, making them suitable for addressing VPR challenges. However, the scarcity of event-based VPR datasets, partly due to the novelty and cost of event cameras, hampers their adoption. To fill this data gap, our paper introduces the NYC-Event-VPR dataset to the robotics and computer vision communities, featuring the Prophesee IMX636 HD event sensor (1280x720 resolution), combined with RGB camera and GPS module. It encompasses over 13 hours of geotagged event data, spanning 260 kilometers across New York City, covering diverse lighting and weather conditions, day/night scenarios, and multiple visits to various locations. Furthermore, our paper employs three frameworks to conduct generalization performance assessments, promoting innovation in event-based VPR and its integration into robotics applications.
- Abstract(参考訳): 視覚的場所認識(VPR)は、自律ロボットが以前に訪れた場所を識別し、同時位置決めやマッピング(SLAM)といったタスクに寄与する。
VPRは、画像近傍の正確な検索や風景の外観変化といった課題に直面している。
イベントカメラはダイナミック・ビジョン・センサーとしても知られており、VPRの新しいセンサーモダリティであり、高時間分解能(1MHzクロック)、超低レイテンシ( {\mu}s)、高ダイナミックレンジ(>120dB)といった特徴を持つ課題に対して、有望な解決策を提供する。
これらの特性により、イベントカメラは動きのぼやけの影響を受けにくくなり、様々な照明条件で頑丈になり、VPRの課題に対処するのに適している。
しかしながら、イベントベースのVPRデータセットの不足は、部分的にはイベントカメラの新規性とコストのために、採用を妨げている。
このデータギャップを埋めるために,本研究では,RGBカメラとGPSモジュールを組み合わせたProphesee IMX636 HDイベントセンサ(1280x720解像度)を備えた,ロボットとコンピュータビジョンのコミュニティに,NYC-Event-VPRデータセットを導入している。
13時間以上のジオタグ付きイベントデータが含まれており、ニューヨーク市を260km横断し、様々な照明と気象条件、昼夜のシナリオ、そして様々な場所への複数の訪問をカバーしている。
さらに,3つのフレームワークを用いて,一般化性能評価を行い,イベントベースVPRの革新とロボットアプリケーションへの統合を促進する。
関連論文リスト
- Dataset and Benchmark: Novel Sensors for Autonomous Vehicle Perception [7.474695739346621]
本稿では,このトピックの今後の研究を促進するために,自律走行認識のための新しいセンサーについて紹介する。
データは2つの8kmルートを繰り返すことで収集され、様々な照明条件と反対の視点を含む。
我々の知る限り、NSAVPデータセットは、ステレオイベントとモノクロカメラと共にステレオサーマルカメラを初めて組み込んだものだ。
論文 参考訳(メタデータ) (2024-01-24T23:25:23Z) - EventTransAct: A video transformer-based framework for Event-camera
based action recognition [52.537021302246664]
イベントカメラは、RGBビデオの標準アクション認識と比較して、新しい機会を提供する。
本研究では,最初にイベントフレーム当たりの空間埋め込みを取得するビデオトランスフォーマーネットワーク(VTN)という,計算効率のよいモデルを用いる。
イベントデータのスパースできめ細かい性質にVTNをよりよく採用するために、イベントコントラストロス(mathcalL_EC$)とイベント固有の拡張を設計する。
論文 参考訳(メタデータ) (2023-08-25T23:51:07Z) - Event-based Simultaneous Localization and Mapping: A Comprehensive Survey [52.73728442921428]
ローカライゼーションとマッピングタスクのための非同期および不規則なイベントストリームの利点を利用する、イベントベースのvSLAMアルゴリズムのレビュー。
Paperは、イベントベースのvSLAMメソッドを、特徴ベース、ダイレクト、モーション補償、ディープラーニングの4つのカテゴリに分類する。
論文 参考訳(メタデータ) (2023-04-19T16:21:14Z) - EV-Catcher: High-Speed Object Catching Using Low-latency Event-based
Neural Networks [107.62975594230687]
イベントカメラが優れており、高速移動物体の衝突位置を正確に推定するアプリケーションを実証する。
イベントデータを低レイテンシでエンコードするために,Binary Event History Image(BEHI)と呼ばれる軽量なイベント表現を導入する。
計算制約のある組込みプラットフォーム上でも最大13m/sの速さで, 異なる場所をターゲットとした球のキャッチにおいて, 81%の成功率を達成することができることを示す。
論文 参考訳(メタデータ) (2023-04-14T15:23:28Z) - How Many Events do You Need? Event-based Visual Place Recognition Using
Sparse But Varying Pixels [29.6328152991222]
イベントカメラ研究の潜在的な応用の1つは、ロボットのローカライゼーションのための視覚的位置認識である。
事象フレームに蓄積した画素位置における事象数に絶対的な差があることが、位置認識タスクに十分であることを示す。
我々は,Brisbane-Event-VPRデータセットに対する提案手法を,新たに提案した屋内QCR-Event-VPRデータセットとともに屋外運転シナリオで評価した。
論文 参考訳(メタデータ) (2022-06-28T00:24:12Z) - TUM-VIE: The TUM Stereo Visual-Inertial Event Dataset [50.8779574716494]
イベントカメラはバイオインスパイアされた視覚センサーで、ピクセルごとの明るさの変化を測定する。
これらは、低レイテンシ、高ダイナミックレンジ、高時間分解能、低消費電力など、従来のフレームベースのカメラよりも多くの利点を提供する。
イベントカメラを用いた3次元認識・ナビゲーションアルゴリズムの開発を促進するため,TUM-VIEデータセットを提案する。
論文 参考訳(メタデータ) (2021-08-16T19:53:56Z) - DSEC: A Stereo Event Camera Dataset for Driving Scenarios [55.79329250951028]
本研究は,イベントカメラを用いた初の高分解能大規模ステレオデータセットを提案する。
データセットは、様々な照明条件で駆動により収集された53のシーケンスを含む。
イベントベースステレオアルゴリズムの開発と評価のための基礎的な真相の相違を提供する。
論文 参考訳(メタデータ) (2021-03-10T12:10:33Z) - Event-based Stereo Visual Odometry [42.77238738150496]
ステレオ・イベント・ベースのカメラ・リグが取得したデータから視覚計測の問題に対する解決策を提案する。
我々は,シンプルかつ効率的な表現を用いて,ステレオイベントベースのデータの時間的一貫性を最大化する。
論文 参考訳(メタデータ) (2020-07-30T15:53:28Z) - Reducing the Sim-to-Real Gap for Event Cameras [64.89183456212069]
イベントカメラは、非同期でピクセルごとの明るさ変化を報告し、非並列の低レイテンシで「イベント」と呼ばれるパラダイムシフトする新しいセンサーである。
近年の研究では、コンボリューショナルニューラルネットワーク(CNN)を用いて、映像再構成とイベントによる光学的流れを実証している。
既存のビデオ再構成ネットワークの性能を20~40%向上させるイベントベースCNNのトレーニングデータ改善戦略を提案する。
論文 参考訳(メタデータ) (2020-03-20T02:44:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。