論文の概要: A Multi-spectral Dataset for Evaluating Motion Estimation Systems
- arxiv url: http://arxiv.org/abs/2007.00622v2
- Date: Sun, 16 May 2021 08:46:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 23:37:33.661304
- Title: A Multi-spectral Dataset for Evaluating Motion Estimation Systems
- Title(参考訳): 運動推定システム評価のためのマルチスペクトルデータセット
- Authors: Weichen Dai, Yu Zhang, Shenzhou Chen, Donglei Sun, Da Kong
- Abstract要約: 本稿では,マルチスペクトル運動推定システムの性能評価のための新しいデータセットを提案する。
すべてのシーケンスはハンドヘルドマルチスペクトルデバイスから記録される。
深度画像はMicrosoft Kinect2でキャプチャされ、モダリティ間のステレオマッチングを学習するメリットがある。
- 参考スコア(独自算出の注目度): 7.953825491774407
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visible images have been widely used for motion estimation. Thermal images,
in contrast, are more challenging to be used in motion estimation since they
typically have lower resolution, less texture, and more noise. In this paper, a
novel dataset for evaluating the performance of multi-spectral motion
estimation systems is presented. All the sequences are recorded from a handheld
multi-spectral device. It consists of a standard visible-light camera, a
long-wave infrared camera, an RGB-D camera, and an inertial measurement unit
(IMU). The multi-spectral images, including both color and thermal images in
full sensor resolution (640 x 480), are obtained from a standard and a
long-wave infrared camera at 32Hz with hardware-synchronization. The depth
images are captured by a Microsoft Kinect2 and can have benefits for learning
cross-modalities stereo matching. For trajectory evaluation, accurate
ground-truth camera poses obtained from a motion capture system are provided.
In addition to the sequences with bright illumination, the dataset also
contains dim, varying, and complex illumination scenes. The full dataset,
including raw data and calibration data with detailed data format
specifications, is publicly available.
- Abstract(参考訳): 可視画像は運動推定に広く使われている。
対照的に、熱画像は、通常より解像度が低く、テクスチャが小さく、ノイズも大きいため、運動推定に使用されることがより困難である。
本稿では,マルチスペクトル運動推定システムの性能評価のための新しいデータセットを提案する。
すべてのシーケンスはハンドヘルドマルチスペクトルデバイスから記録される。
標準の可視光カメラ、長波赤外線カメラ、RGB-Dカメラ、慣性測定ユニット(IMU)で構成されている。
フルセンサ解像度(640×480)のカラー画像とサーマル画像を含むマルチスペクトル画像は、ハードウェア同期による32Hzの標準および長波長赤外線カメラから得られる。
深度画像はMicrosoft Kinect2でキャプチャされ、モダリティ間のステレオマッチングを学習するメリットがある。
軌道評価のために、モーションキャプチャシステムから得られる正確な地中カメラポーズを提供する。
明るい照明のシーケンスに加えて、データセットにはディム、変色、複雑な照明シーンも含まれている。
詳細なデータフォーマット仕様の生データとキャリブレーションデータを含む、完全なデータセットが公開されている。
関連論文リスト
- Multi-Modal Dataset Acquisition for Photometrically Challenging Object [56.30027922063559]
本稿では,3次元視覚タスクにおける現在のデータセットの限界について,精度,サイズ,リアリズム,および光度に挑戦する対象に対する適切な画像モダリティの観点から検討する。
既存の3次元認識と6次元オブジェクトポーズデータセットを強化する新しいアノテーションと取得パイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-21T10:38:32Z) - The LuViRA Dataset: Measurement Description [53.35153095302381]
このデータセットには、Lund University Vision、Radio、Audio(LuViRA)データセットという、視覚、オーディオ、ラジオセンサーが含まれている。
このデータセットの主な目的は、ローカライゼーションタスクに最もよく使用されるセンサーを融合させる研究を可能にすることである。
論文 参考訳(メタデータ) (2023-02-10T15:12:40Z) - VECtor: A Versatile Event-Centric Benchmark for Multi-Sensor SLAM [31.779462222706346]
イベントカメラは、高ダイナミックな状況や難易度照明の状況において、通常のカメラを補完する強い可能性を秘めている。
私たちのコントリビューションは、マルチセンサーセットアップでキャプチャされたベンチマークデータセットの最初の完全なセットです。
個々のシーケンスには、小規模と大規模の両方の環境が含まれており、ダイナミックビジョンセンサーがターゲットとする特定の課題をカバーする。
論文 参考訳(メタデータ) (2022-07-04T13:37:26Z) - SmartPortraits: Depth Powered Handheld Smartphone Dataset of Human
Portraits for State Estimation, Reconstruction and Synthesis [1.981491298222699]
実物および制御不能な条件下で記録された人間の肖像画の1000件のビデオシーケンスのデータセットを提示する。
収集されたデータセットには、異なるポーズとロケーションでキャプチャされた200人が含まれています。
主な目的は、スマートフォンから得られた生測値と下流アプリケーションの間のギャップを埋めることである。
論文 参考訳(メタデータ) (2022-04-21T15:47:38Z) - Multi-sensor large-scale dataset for multi-view 3D reconstruction [63.59401680137808]
マルチビュー3次元表面再構成のための新しいマルチセンサデータセットを提案する。
スマートフォン、Intel RealSense、Microsoft Kinect、産業用カメラ、構造化光スキャナーなどだ。
14の照明条件下で100方向から取得した107の異なるシーンの約1.4万枚の画像を提供する。
論文 参考訳(メタデータ) (2022-03-11T17:32:27Z) - TUM-VIE: The TUM Stereo Visual-Inertial Event Dataset [50.8779574716494]
イベントカメラはバイオインスパイアされた視覚センサーで、ピクセルごとの明るさの変化を測定する。
これらは、低レイテンシ、高ダイナミックレンジ、高時間分解能、低消費電力など、従来のフレームベースのカメラよりも多くの利点を提供する。
イベントカメラを用いた3次元認識・ナビゲーションアルゴリズムの開発を促進するため,TUM-VIEデータセットを提案する。
論文 参考訳(メタデータ) (2021-08-16T19:53:56Z) - High-Resolution Depth Maps Based on TOF-Stereo Fusion [27.10059147107254]
そこで本研究では,効率的な種子育成アルゴリズムに基づくTOF-ステレオ融合法を提案する。
提案アルゴリズムは2次元画像に基づくステレオアルゴリズムよりも優れていることを示す。
このアルゴリズムは、単一のCPU上でリアルタイムのパフォーマンスを示す可能性がある。
論文 参考訳(メタデータ) (2021-07-30T15:11:42Z) - Event-based Stereo Visual Odometry [42.77238738150496]
ステレオ・イベント・ベースのカメラ・リグが取得したデータから視覚計測の問題に対する解決策を提案する。
我々は,シンプルかつ効率的な表現を用いて,ステレオイベントベースのデータの時間的一貫性を最大化する。
論文 参考訳(メタデータ) (2020-07-30T15:53:28Z) - Active Perception with A Monocular Camera for Multiscopic Vision [50.370074098619185]
低コストの単眼RGBカメラを用いてロボットアプリケーションの正確な深度推定を行うマルチスコープビジョンシステムの設計を行う。
制約のないカメラポーズで撮影された画像を持つマルチビューステレオとは異なり、提案システムはカメラを搭載したロボットアームを積極的に制御し、水平または垂直に並んだ位置の画像を同じパララックスで撮影する。
論文 参考訳(メタデータ) (2020-01-22T08:46:45Z) - Multi-View Photometric Stereo: A Robust Solution and Benchmark Dataset
for Spatially Varying Isotropic Materials [65.95928593628128]
多視点光度ステレオ技術を用いて3次元形状と空間的に異なる反射率の両方をキャプチャする手法を提案する。
我々のアルゴリズムは、遠近点光源と遠近点光源に適している。
論文 参考訳(メタデータ) (2020-01-18T12:26:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。