論文の概要: EVIMO2: An Event Camera Dataset for Motion Segmentation, Optical Flow,
Structure from Motion, and Visual Inertial Odometry in Indoor Scenes with
Monocular or Stereo Algorithms
- arxiv url: http://arxiv.org/abs/2205.03467v1
- Date: Fri, 6 May 2022 20:09:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-15 13:53:59.918045
- Title: EVIMO2: An Event Camera Dataset for Motion Segmentation, Optical Flow,
Structure from Motion, and Visual Inertial Odometry in Indoor Scenes with
Monocular or Stereo Algorithms
- Title(参考訳): EVIMO2:モノクロ・ステレオ・アルゴリズムを用いた屋内シーンにおけるモーションセグメンテーション,光フロー,運動構造,視覚慣性オドメトリーのためのイベントカメラデータセット
- Authors: Levi Burner, Anton Mitrokhin, Cornelia Ferm\"uller, Yiannis Aloimonos
- Abstract要約: データセットは640$times$480のイベントカメラから41分のデータと、2080$times$1552のクラシックカラーカメラで構成されている。
データセットの173のシーケンスは3つのカテゴリに分けられる。
いくつかのシーケンスは、従来のカメラが故障した低照度環境で記録された。
- 参考スコア(独自算出の注目度): 10.058432912712396
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A new event camera dataset, EVIMO2, is introduced that improves on the
popular EVIMO dataset by providing more data, from better cameras, in more
complex scenarios. As with its predecessor, EVIMO2 provides labels in the form
of per-pixel ground truth depth and segmentation as well as camera and object
poses. All sequences use data from physical cameras and many sequences feature
multiple independently moving objects. Typically, such labeled data is
unavailable in physical event camera datasets. Thus, EVIMO2 will serve as a
challenging benchmark for existing algorithms and rich training set for the
development of new algorithms. In particular, EVIMO2 is suited for supporting
research in motion and object segmentation, optical flow, structure from
motion, and visual (inertial) odometry in both monocular or stereo
configurations.
EVIMO2 consists of 41 minutes of data from three 640$\times$480 event
cameras, one 2080$\times$1552 classical color camera, inertial measurements
from two six axis inertial measurement units, and millimeter accurate object
poses from a Vicon motion capture system. The dataset's 173 sequences are
arranged into three categories. 3.75 minutes of independently moving household
objects, 22.55 minutes of static scenes, and 14.85 minutes of basic motions in
shallow scenes. Some sequences were recorded in low-light conditions where
conventional cameras fail. Depth and segmentation are provided at 60 Hz for the
event cameras and 30 Hz for the classical camera. The masks can be regenerated
using open-source code up to rates as high as 200 Hz.
This technical report briefly describes EVIMO2. The full documentation is
available online. Videos of individual sequences can be sampled on the download
page.
- Abstract(参考訳): 新しいイベントカメラデータセットであるEVIMO2が導入され、より複雑なシナリオにおいて、より良いカメラからより多くのデータを提供することで、人気のあるEVIMOデータセットを改善する。
前者と同様に、EVIMO2は、カメラやオブジェクトのポーズと同様に、ピクセルごとの真実の深さとセグメンテーションのラベルを提供する。
すべてのシーケンスは物理カメラのデータを使用し、多くのシーケンスは独立して動く複数のオブジェクトを特徴とする。
通常、このようなラベル付きデータは物理イベントカメラデータセットでは利用できない。
したがって、evimo2は既存のアルゴリズムと新しいアルゴリズムの開発のための豊富なトレーニングセットに対する挑戦的なベンチマークとして機能する。
特に、evimo2は、運動と物体のセグメンテーション、光学フロー、運動からの構造、および単眼またはステレオ構成の視覚(慣性)オドメトリの研究を支援するのに適している。
evimo2は、3つの640$\times$480のイベントカメラから41分間のデータ、1つの2080$\times $1552のクラシックカラーカメラ、2つの6軸慣性測定ユニットからの慣性測定、そしてバイコンモーションキャプチャシステムからの精密な正確な物体のポーズからなる。
データセットの173のシーケンスは3つのカテゴリに分けられる。
3.75分間の単独移動、22.55分間の静的なシーン、14.85分間の基本的な動きの浅いシーン。
いくつかのシーケンスは、従来のカメラが故障した低照度環境で記録された。
深さとセグメンテーションは、イベントカメラは60Hz、クラシックカメラは30Hzで提供される。
マスクは200Hzまでの速度でオープンソースコードを使って再生することができる。
本技術報告ではEVIMO2について概説する。
完全なドキュメントはオンラインで入手できる。
個々のシーケンスのビデオはダウンロードページでサンプルすることができる。
関連論文リスト
- EF-3DGS: Event-Aided Free-Trajectory 3D Gaussian Splatting [76.02450110026747]
生物学的ビジョンにインスパイアされたイベントカメラは、時間分解能の高い画素の強度を非同期に記録する。
本稿では,イベントカメラの利点を3DGSにシームレスに統合するイベント支援フリートラジェクトリ3DGSを提案する。
提案手法を,パブリックタンクとテンプルのベンチマークと,新たに収集した実世界のデータセットであるRealEv-DAVISで評価した。
論文 参考訳(メタデータ) (2024-10-20T13:44:24Z) - PIV3CAMS: a multi-camera dataset for multiple computer vision problems and its application to novel view-point synthesis [120.4361056355332]
この論文では、3つのCAMeraS、すなわちPIV3CAMSからPaired Image and Videoのデータを紹介している。
PIV3CAMSデータセットは8385対の画像と82対のビデオで構成されている。
本稿では,現在最先端のアルゴリズムの再構築に加えて,深度情報を幾何的に統合する代替モデルについても検討する。
論文 参考訳(メタデータ) (2024-07-26T12:18:29Z) - Event-Free Moving Object Segmentation from Moving Ego Vehicle [88.33470650615162]
動的シーンにおけるオブジェクトセグメンテーション(MOS)の移動は、自律運転において重要で困難だが、未調査の研究テーマである。
ほとんどのセグメンテーション法は、光学フローマップから得られるモーションキューを利用する。
我々は,光学的フローに頼らずにリッチなモーションキューを提供する,より優れた映像理解のためのイベントカメラを活用することを提案する。
論文 参考訳(メタデータ) (2023-04-28T23:43:10Z) - A Neuromorphic Dataset for Object Segmentation in Indoor Cluttered
Environment [3.6047642906482142]
本稿では,屋内環境におけるオブジェクトセグメンテーションのためのイベントベースESDデータセットを提案する。
提案するデータセットは,145のシーケンスと14,166のRGBフレームから構成される。
ステレオグラフィック構成で2つのイベントベースのカメラから2188万と2080万のイベントが収集されている。
論文 参考訳(メタデータ) (2023-02-13T12:02:51Z) - MOSE: A New Dataset for Video Object Segmentation in Complex Scenes [106.64327718262764]
ビデオオブジェクトセグメンテーション(VOS)は、ビデオクリップシーケンス全体を通して特定のオブジェクトをセグメンテーションすることを目的としている。
最先端のVOSメソッドは、既存のデータセット上で優れたパフォーマンス(例えば、90%以上のJ&F)を達成した。
我々は、複雑な環境でのトラッキングとセグメンテーションを研究するために、coMplex video Object SEgmentation (MOSE)と呼ばれる新しいVOSデータセットを収集する。
論文 参考訳(メタデータ) (2023-02-03T17:20:03Z) - Moving Object Detection for Event-based vision using Graph Spectral
Clustering [6.354824287948164]
移動物体検出は、幅広い応用のためのコンピュータビジョンにおける中心的な話題となっている。
イベントベースデータにおける移動物体検出のための教師なしグラフスペクトルクラスタリング手法を提案する。
さらに,移動物体の最適個数を自動決定する方法について述べる。
論文 参考訳(メタデータ) (2021-09-30T10:19:22Z) - TUM-VIE: The TUM Stereo Visual-Inertial Event Dataset [50.8779574716494]
イベントカメラはバイオインスパイアされた視覚センサーで、ピクセルごとの明るさの変化を測定する。
これらは、低レイテンシ、高ダイナミックレンジ、高時間分解能、低消費電力など、従来のフレームベースのカメラよりも多くの利点を提供する。
イベントカメラを用いた3次元認識・ナビゲーションアルゴリズムの開発を促進するため,TUM-VIEデータセットを提案する。
論文 参考訳(メタデータ) (2021-08-16T19:53:56Z) - VisEvent: Reliable Object Tracking via Collaboration of Frame and Event
Flows [93.54888104118822]
このタスクには現実的でスケールしたデータセットがないため、大規模なVisible-Eventベンチマーク(VisEventと呼ぶ)を提案する。
私たちのデータセットは、低照度、高速、背景乱雑なシナリオ下でキャプチャされた820のビデオペアで構成されています。
VisEventに基づいて、イベントフローをイベントイメージに変換し、30以上のベースラインメソッドを構築します。
論文 参考訳(メタデータ) (2021-08-11T03:55:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。