論文の概要: TUM-VIE: The TUM Stereo Visual-Inertial Event Dataset
- arxiv url: http://arxiv.org/abs/2108.07329v1
- Date: Mon, 16 Aug 2021 19:53:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-19 01:03:55.187523
- Title: TUM-VIE: The TUM Stereo Visual-Inertial Event Dataset
- Title(参考訳): TUM-VIE: TUM Stereo Visual-Inertial Event Dataset
- Authors: Simon Klenk, Jason Chui, Nikolaus Demmel, Daniel Cremers
- Abstract要約: イベントカメラはバイオインスパイアされた視覚センサーで、ピクセルごとの明るさの変化を測定する。
これらは、低レイテンシ、高ダイナミックレンジ、高時間分解能、低消費電力など、従来のフレームベースのカメラよりも多くの利点を提供する。
イベントカメラを用いた3次元認識・ナビゲーションアルゴリズムの開発を促進するため,TUM-VIEデータセットを提案する。
- 参考スコア(独自算出の注目度): 50.8779574716494
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Event cameras are bio-inspired vision sensors which measure per pixel
brightness changes. They offer numerous benefits over traditional, frame-based
cameras, including low latency, high dynamic range, high temporal resolution
and low power consumption. Thus, these sensors are suited for robotics and
virtual reality applications. To foster the development of 3D perception and
navigation algorithms with event cameras, we present the TUM-VIE dataset. It
consists of a large variety of handheld and head-mounted sequences in indoor
and outdoor environments, including rapid motion during sports and high dynamic
range scenarios. The dataset contains stereo event data, stereo grayscale
frames at 20Hz as well as IMU data at 200Hz. Timestamps between all sensors are
synchronized in hardware. The event cameras contain a large sensor of 1280x720
pixels, which is significantly larger than the sensors used in existing stereo
event datasets (at least by a factor of ten). We provide ground truth poses
from a motion capture system at 120Hz during the beginning and end of each
sequence, which can be used for trajectory evaluation. TUM-VIE includes
challenging sequences where state-of-the art visual SLAM algorithms either fail
or result in large drift. Hence, our dataset can help to push the boundary of
future research on event-based visual-inertial perception algorithms.
- Abstract(参考訳): イベントカメラはバイオインスパイアされた視覚センサーで、ピクセルの明るさの変化を測定する。
従来のフレームベースのカメラに比べて、低レイテンシ、高ダイナミックレンジ、高時間分解能、低消費電力など多くの利点がある。
したがって、これらのセンサーはロボット工学や仮想現実応用に適している。
イベントカメラを用いた3次元認識・ナビゲーションアルゴリズムの開発を促進するため,TUM-VIEデータセットを提案する。
スポーツ中の急激な動きや高ダイナミックレンジシナリオを含む、屋内および屋外環境における様々なハンドヘルドおよびヘッドマウントシーケンスで構成されている。
データセットには、ステレオイベントデータ、20Hzのステレオグレースケールフレーム、200HzのIMUデータが含まれている。
すべてのセンサー間のタイムスタンプはハードウェアで同期される。
イベントカメラには1280x720ピクセルの大きなセンサーが含まれており、既存のステレオイベントデータセットで使用されるセンサー(少なくとも10倍)よりもはるかに大きい。
各シーケンスの開始と終了の間に120Hzのモーションキャプチャシステムから地中真実のポーズを提供し、軌道評価に使用することができる。
TUM-VIEは、最先端のビジュアルSLAMアルゴリズムが失敗したり、大きなドリフトが発生したりする、困難なシーケンスを含んでいる。
したがって、私たちのデータセットは、イベントベースの視覚慣性認識アルゴリズムに関する将来の研究の境界を推し進めるのに役立つ。
関連論文リスト
- BlinkTrack: Feature Tracking over 100 FPS via Events and Images [50.98675227695814]
本稿では,RGB画像とイベントデータを統合した新しいフレームワークであるBlinkTrackを提案する。
本手法は,従来のカルマンフィルタを学習ベースのフレームワークに拡張し,イベントおよびイメージの分岐において微分可能なカルマンフィルタを利用する。
実験の結果、BlinkTrackは既存のイベントベースの手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-09-26T15:54:18Z) - ES-PTAM: Event-based Stereo Parallel Tracking and Mapping [11.801511288805225]
イベントカメラは、標準的なカメラの限界を克服する利点を提供する。
2つのアイデアを組み合わせたイベントベースステレオVOシステムを提案する。
実世界の5つのデータセットからシステムを評価する。
論文 参考訳(メタデータ) (2024-08-28T07:56:28Z) - VECtor: A Versatile Event-Centric Benchmark for Multi-Sensor SLAM [31.779462222706346]
イベントカメラは、高ダイナミックな状況や難易度照明の状況において、通常のカメラを補完する強い可能性を秘めている。
私たちのコントリビューションは、マルチセンサーセットアップでキャプチャされたベンチマークデータセットの最初の完全なセットです。
個々のシーケンスには、小規模と大規模の両方の環境が含まれており、ダイナミックビジョンセンサーがターゲットとする特定の課題をカバーする。
論文 参考訳(メタデータ) (2022-07-04T13:37:26Z) - ESL: Event-based Structured Light [62.77144631509817]
イベントカメラはバイオインスパイアされたセンサーであり、標準的なカメラよりも大きな利点がある。
本稿では,イベントカメラを用いた新しい構造化光システムを提案し,高精度かつ高速な深度センシングの課題に対処する。
論文 参考訳(メタデータ) (2021-11-30T15:47:39Z) - Event Guided Depth Sensing [50.997474285910734]
バイオインスパイアされたイベントカメラ駆動深度推定アルゴリズムを提案する。
提案手法では,イベントカメラが検出したシーン活動に応じて,関心領域を高密度に照明する。
シミュレーションされた自律運転シーケンスと実際の屋内環境におけるアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2021-10-20T11:41:11Z) - Moving Object Detection for Event-based vision using Graph Spectral
Clustering [6.354824287948164]
移動物体検出は、幅広い応用のためのコンピュータビジョンにおける中心的な話題となっている。
イベントベースデータにおける移動物体検出のための教師なしグラフスペクトルクラスタリング手法を提案する。
さらに,移動物体の最適個数を自動決定する方法について述べる。
論文 参考訳(メタデータ) (2021-09-30T10:19:22Z) - VisEvent: Reliable Object Tracking via Collaboration of Frame and Event
Flows [93.54888104118822]
このタスクには現実的でスケールしたデータセットがないため、大規模なVisible-Eventベンチマーク(VisEventと呼ぶ)を提案する。
私たちのデータセットは、低照度、高速、背景乱雑なシナリオ下でキャプチャされた820のビデオペアで構成されています。
VisEventに基づいて、イベントフローをイベントイメージに変換し、30以上のベースラインメソッドを構築します。
論文 参考訳(メタデータ) (2021-08-11T03:55:12Z) - DSEC: A Stereo Event Camera Dataset for Driving Scenarios [55.79329250951028]
本研究は,イベントカメラを用いた初の高分解能大規模ステレオデータセットを提案する。
データセットは、様々な照明条件で駆動により収集された53のシーケンスを含む。
イベントベースステレオアルゴリズムの開発と評価のための基礎的な真相の相違を提供する。
論文 参考訳(メタデータ) (2021-03-10T12:10:33Z) - Asynchronous Corner Tracking Algorithm based on Lifetime of Events for
DAVIS Cameras [0.9988653233188148]
イベントカメラ、すなわちダイナミックおよびアクティブピクセルビジョンセンサー(DAVIS)はシーンの強度変化を捉え、非同期でイベントストリームを生成する。
このようなカメラの出力速度は、高ダイナミックな環境で毎秒最大1000万イベントに達することができる。
DAVISカメラで捉えたイベントと強度画像の両方を利用した非同期コーナー追跡手法を提案する。
論文 参考訳(メタデータ) (2020-10-29T12:02:40Z) - A Multi-spectral Dataset for Evaluating Motion Estimation Systems [7.953825491774407]
本稿では,マルチスペクトル運動推定システムの性能評価のための新しいデータセットを提案する。
すべてのシーケンスはハンドヘルドマルチスペクトルデバイスから記録される。
深度画像はMicrosoft Kinect2でキャプチャされ、モダリティ間のステレオマッチングを学習するメリットがある。
論文 参考訳(メタデータ) (2020-07-01T17:11:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。