論文の概要: Multi-sensor large-scale dataset for multi-view 3D reconstruction
- arxiv url: http://arxiv.org/abs/2203.06111v1
- Date: Fri, 11 Mar 2022 17:32:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-14 12:21:28.704575
- Title: Multi-sensor large-scale dataset for multi-view 3D reconstruction
- Title(参考訳): マルチビュー3次元再構成のためのマルチセンサ大規模データセット
- Authors: Oleg Voynov, Gleb Bobrovskikh, Pavel Karpyshev, Andrei-Timotei
Ardelean, Arseniy Bozhenko, Saveliy Galochkin, Ekaterina Karmanova, Pavel
Kopanev, Yaroslav Labutin-Rymsho, Ruslan Rakhimov, Aleksandr Safin, Valerii
Serpiva, Alexey Artemov, Evgeny Burnaev, Dzmitry Tsetserukou, Denis Zorin
- Abstract要約: 我々は3次元表面再構成のための新しいマルチセンサデータセットを提案する。
スマートフォン、Intel RealSense、Microsoft Kinect、産業用カメラ、構造化光スキャナーなどだ。
全体として、100方向から14の照明条件で取得した110の異なるシーンの14万枚以上の画像を提供する。
- 参考スコア(独自算出の注目度): 63.59401680137808
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a new multi-sensor dataset for 3D surface reconstruction. It
includes registered RGB and depth data from sensors of different resolutions
and modalities: smartphones, Intel RealSense, Microsoft Kinect, industrial
cameras, and structured-light scanner. The data for each scene is obtained
under a large number of lighting conditions, and the scenes are selected to
emphasize a diverse set of material properties challenging for existing
algorithms. In the acquisition process, we aimed to maximize high-resolution
depth data quality for challenging cases, to provide reliable ground truth for
learning algorithms. Overall, we provide over 1.4 million images of 110
different scenes acquired at 14 lighting conditions from 100 viewing
directions. We expect our dataset will be useful for evaluation and training of
3D reconstruction algorithms of different types and for other related tasks.
Our dataset and accompanying software will be available online.
- Abstract(参考訳): 我々は3次元表面再構成のための新しいマルチセンサデータセットを提案する。
そこには、スマートフォン、intel realsense、microsoft kinect、産業用カメラ、構造化光スキャナーなど、さまざまな解像度とモードのセンサーからの登録されたrgbと深度データが含まれている。
各シーンのデータは、多くの照明条件の下で取得され、シーンは、既存のアルゴリズムに挑戦する多様な素材特性を強調するために選択される。
取得プロセスでは,課題に対して高解像度の深度データ品質を最大化し,学習アルゴリズムに信頼性の高い基礎的真理を提供する。
概して、100方向から14の照明条件で取得した110の異なるシーンの140万以上の画像を提供する。
我々のデータセットは、異なるタイプの3次元再構成アルゴリズムの評価と訓練、および他の関連するタスクに役立ちます。
私たちのデータセットと付随するソフトウェアはオンラインで利用できます。
関連論文リスト
- Shape2.5D: A Dataset of Texture-less Surfaces for Depth and Normals Estimation [12.757150641117077]
シェープ2.5Dは、このギャップに対処するために設計された、新しい大規模データセットである。
提案するデータセットは、3Dモデリングソフトウェアでレンダリングされた合成画像を含む。
また、深度カメラで撮影される4,672フレームからなる現実世界のサブセットも含まれている。
論文 参考訳(メタデータ) (2024-06-22T12:24:49Z) - OpenMaterial: A Comprehensive Dataset of Complex Materials for 3D Reconstruction [54.706361479680055]
295個の異なる材料からなる1001個のオブジェクトからなるOpenMaterialデータセットを紹介した。
OpenMaterialは3D形状、マテリアルタイプ、カメラポーズ、深さ、オブジェクトマスクなど、包括的なアノテーションを提供する。
これは、多様で挑戦的な材料を持つオブジェクト上で、既存のアルゴリズムの定量的評価を可能にする最初の大規模データセットである。
論文 参考訳(メタデータ) (2024-06-13T07:46:17Z) - DIDLM:A Comprehensive Multi-Sensor Dataset with Infrared Cameras, Depth Cameras, LiDAR, and 4D Millimeter-Wave Radar in Challenging Scenarios for 3D Mapping [7.050468075029598]
本研究では,屋内・屋外環境における3次元マッピングのための総合的マルチセンサ・データセットを提案する。
このデータセットは、赤外線カメラ、深度カメラ、LiDAR、および4Dミリ波レーダーからのデータで構成されている。
さまざまなSLAMアルゴリズムを使用してデータセットを処理し、異なるシナリオにおけるアルゴリズムのパフォーマンスの違いを明らかにする。
論文 参考訳(メタデータ) (2024-04-15T09:49:33Z) - Zero-Shot Multi-Object Scene Completion [59.325611678171974]
1枚のRGB-D画像から複雑なシーンにおける複数の見えない物体の完全な形状を復元する3Dシーン補完法を提案する。
提案手法は, 合成および実世界の両方のデータセットにおいて, 現在の最先端技術よりも優れている。
論文 参考訳(メタデータ) (2024-03-21T17:59:59Z) - Den-SOFT: Dense Space-Oriented Light Field DataseT for 6-DOF Immersive Experience [28.651514326042648]
我々は,移動式マルチカメラ大空間高密度光場キャプチャシステムを構築した。
本研究の目的は,一般的な3次元シーン再構築アルゴリズムの開発に貢献することである。
収集されたデータセットは、既存のデータセットよりもはるかに密度が高い。
論文 参考訳(メタデータ) (2024-03-15T02:39:44Z) - Multi-Modal Dataset Acquisition for Photometrically Challenging Object [56.30027922063559]
本稿では,3次元視覚タスクにおける現在のデータセットの限界について,精度,サイズ,リアリズム,および光度に挑戦する対象に対する適切な画像モダリティの観点から検討する。
既存の3次元認識と6次元オブジェクトポーズデータセットを強化する新しいアノテーションと取得パイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-21T10:38:32Z) - 3D Data Augmentation for Driving Scenes on Camera [50.41413053812315]
本稿では,Drive-3DAugと呼ばれる3次元データ拡張手法を提案する。
まずNeural Radiance Field(NeRF)を用いて,背景および前景の3次元モデルの再構成を行う。
そして、予め定義された背景の有効領域に適応した位置と向きの3Dオブジェクトを配置することにより、拡張駆動シーンを得ることができる。
論文 参考訳(メタデータ) (2023-03-18T05:51:05Z) - BS3D: Building-scale 3D Reconstruction from RGB-D Images [25.604775584883413]
本稿では,消費者向け深度カメラを用いた大規模3次元再構築のための使い易いフレームワークを提案する。
複雑で高価な買収設定とは異なり、当社のシステムはクラウドソーシングを可能にする。
論文 参考訳(メタデータ) (2023-01-03T11:46:14Z) - TUM-VIE: The TUM Stereo Visual-Inertial Event Dataset [50.8779574716494]
イベントカメラはバイオインスパイアされた視覚センサーで、ピクセルごとの明るさの変化を測定する。
これらは、低レイテンシ、高ダイナミックレンジ、高時間分解能、低消費電力など、従来のフレームベースのカメラよりも多くの利点を提供する。
イベントカメラを用いた3次元認識・ナビゲーションアルゴリズムの開発を促進するため,TUM-VIEデータセットを提案する。
論文 参考訳(メタデータ) (2021-08-16T19:53:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。