論文の概要: Shape2.5D: A Dataset of Texture-less Surfaces for Depth and Normals Estimation
- arxiv url: http://arxiv.org/abs/2406.15831v2
- Date: Tue, 05 Nov 2024 09:56:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-06 14:56:29.185605
- Title: Shape2.5D: A Dataset of Texture-less Surfaces for Depth and Normals Estimation
- Title(参考訳): Shape2.5D: 深さと正規値推定のためのテクスチャレス表面のデータセット
- Authors: Muhammad Saif Ullah Khan, Sankalp Sinha, Didier Stricker, Marcus Liwicki, Muhammad Zeshan Afzal,
- Abstract要約: シェープ2.5Dは、このギャップに対処するために設計された、新しい大規模データセットである。
提案するデータセットは、3Dモデリングソフトウェアでレンダリングされた合成画像を含む。
また、深度カメラで撮影される4,672フレームからなる現実世界のサブセットも含まれている。
- 参考スコア(独自算出の注目度): 12.757150641117077
- License:
- Abstract: Reconstructing texture-less surfaces poses unique challenges in computer vision, primarily due to the lack of specialized datasets that cater to the nuanced needs of depth and normals estimation in the absence of textural information. We introduce "Shape2.5D," a novel, large-scale dataset designed to address this gap. Comprising 1.17 million frames spanning over 39,772 3D models and 48 unique objects, our dataset provides depth and surface normal maps for texture-less object reconstruction. The proposed dataset includes synthetic images rendered with 3D modeling software to simulate various lighting conditions and viewing angles. It also includes a real-world subset comprising 4,672 frames captured with a depth camera. Our comprehensive benchmarks demonstrate the dataset's ability to support the development of algorithms that robustly estimate depth and normals from RGB images and perform voxel reconstruction. Our open-source data generation pipeline allows the dataset to be extended and adapted for future research. The dataset is publicly available at https://github.com/saifkhichi96/Shape25D.
- Abstract(参考訳): テクスチャのない表面を再構築することは、主にテクスチャ情報がない場合に、不規則な深さと正規さの要求を満たす特別なデータセットが欠如していることから、コンピュータビジョンにおいてユニークな課題を生んでいる。
このギャップに対処するために設計された,新しい大規模データセットであるShape2.5Dを紹介した。
39,772個の3Dモデルと48個のユニークなオブジェクトにまたがる117万フレームからなるデータセットは、テクスチャレスオブジェクト再構築のための深さと表面のノーマルマップを提供する。
提案したデータセットは、様々な照明条件や視角をシミュレートする3Dモデリングソフトウェアでレンダリングされた合成画像を含む。
また、深度カメラで撮影される4,672フレームからなる現実世界のサブセットも含まれている。
我々の包括的なベンチマークでは、RGB画像から深度と正常度を頑健に推定し、ボクセル再構成を行うアルゴリズムの開発を支援するデータセットの能力を実証している。
私たちのオープンソースのデータ生成パイプラインは、データセットを拡張して、将来の研究に適応できるようにします。
データセットはhttps://github.com/saifkhichi96/Shape25Dで公開されている。
関連論文リスト
- OpenMaterial: A Comprehensive Dataset of Complex Materials for 3D Reconstruction [54.706361479680055]
295個の異なる材料からなる1001個のオブジェクトからなるOpenMaterialデータセットを紹介した。
OpenMaterialは3D形状、マテリアルタイプ、カメラポーズ、深さ、オブジェクトマスクなど、包括的なアノテーションを提供する。
これは、多様で挑戦的な材料を持つオブジェクト上で、既存のアルゴリズムの定量的評価を可能にする最初の大規模データセットである。
論文 参考訳(メタデータ) (2024-06-13T07:46:17Z) - Virtually Enriched NYU Depth V2 Dataset for Monocular Depth Estimation: Do We Need Artificial Augmentation? [61.234412062595155]
我々は、単眼深度推定のために設計された、ニューヨーク深度v2データセットの事実上拡張版であるANYUを紹介する。
仮想世界の完全な3Dシーンを利用して人工データセットを生成する、よく知られたアプローチとは対照的に、ANYUはバーチャルリアリティーオブジェクトのRGB-D表現を取り入れて作成された。
ANYUは,アーキテクチャがかなり異なるディープニューラルネットワークの単眼深度推定性能と一般化を改善したことを示す。
論文 参考訳(メタデータ) (2024-04-15T05:44:03Z) - FOUND: Foot Optimization with Uncertain Normals for Surface Deformation Using Synthetic Data [27.53648027412686]
本研究は,ヒトの足について,少数視点再構成法の開発を試みている。
この課題を解決するためには,RGB画像からリッチな幾何学的手がかりを抽出し,それらを最終3次元オブジェクトに慎重に融合させる必要がある。
通常の予測器は、実際の画像において、既成の等価性を著しく上回ることを示す。
論文 参考訳(メタデータ) (2023-10-27T17:11:07Z) - FrozenRecon: Pose-free 3D Scene Reconstruction with Frozen Depth Models [67.96827539201071]
本稿では,3次元シーン再構成のための新しいテスト時間最適化手法を提案する。
本手法は5つのゼロショットテストデータセット上で,最先端のクロスデータセット再構築を実現する。
論文 参考訳(メタデータ) (2023-08-10T17:55:02Z) - High-Resolution Synthetic RGB-D Datasets for Monocular Depth Estimation [3.349875948009985]
我々は、GTA-V(Grand Theft Auto)から1920×1080の高解像度合成深度データセット(HRSD)を生成する。
実験と解析のために,提案した合成データセットに基づいて,最先端の変換器に基づくMDEアルゴリズムであるDPTアルゴリズムを訓練し,異なるシーンにおける深度マップの精度を9%向上させる。
論文 参考訳(メタデータ) (2023-05-02T19:03:08Z) - Domain Randomization-Enhanced Depth Simulation and Restoration for
Perceiving and Grasping Specular and Transparent Objects [28.84776177634971]
深度復元のための強力なRGBD融合ネットワークSwinDRNetを提案する。
また,ドメインランダム化強化深度シミュレーション(DREDS)によるアクティブステレオ深度システムのシミュレーションも提案する。
我々の深度復元は下流タスクの性能を効果的に向上させることを示す。
論文 参考訳(メタデータ) (2022-08-07T19:17:16Z) - RTMV: A Ray-Traced Multi-View Synthetic Dataset for Novel View Synthesis [104.53930611219654]
約2000の複雑なシーンからレンダリングされた300k画像からなる,新しいビュー合成のための大規模合成データセットを提案する。
データセットは、新しいビュー合成のための既存の合成データセットよりも桁違いに大きい。
高品質な3Dメッシュの4つのソースを使用して、私たちのデータセットのシーンは、カメラビュー、照明、形状、材料、テクスチャの難しいバリエーションを示します。
論文 参考訳(メタデータ) (2022-05-14T13:15:32Z) - A Real World Dataset for Multi-view 3D Reconstruction [28.298548207213468]
日常のテーブルトップオブジェクトの371個の3Dモデルと,実世界のRGBと深度画像のデータセットを提示する。
私たちは主に、タスクに適切な実世界のベンチマークがないため、学習したマルチビューの3D再構成に注目し、データセットがそのギャップを埋めることを示す。
論文 参考訳(メタデータ) (2022-03-22T00:15:54Z) - Multi-sensor large-scale dataset for multi-view 3D reconstruction [63.59401680137808]
マルチビュー3次元表面再構成のための新しいマルチセンサデータセットを提案する。
スマートフォン、Intel RealSense、Microsoft Kinect、産業用カメラ、構造化光スキャナーなどだ。
14の照明条件下で100方向から取得した107の異なるシーンの約1.4万枚の画像を提供する。
論文 参考訳(メタデータ) (2022-03-11T17:32:27Z) - Ground material classification and for UAV-based photogrammetric 3D data
A 2D-3D Hybrid Approach [1.3359609092684614]
近年,物理環境を表す3次元仮想データを作成するために,多くの領域でフォトグラム法が広く用いられている。
これらの最先端技術は、迅速な3D戦場再建、仮想訓練、シミュレーションを目的として、アメリカ陸軍と海軍の注意を引き付けている。
論文 参考訳(メタデータ) (2021-09-24T22:29:26Z) - GeoNet++: Iterative Geometric Neural Network with Edge-Aware Refinement
for Joint Depth and Surface Normal Estimation [204.13451624763735]
本研究では,エッジアウェア・リファインメント(GeoNet++)を用いた幾何ニューラルネットワークを提案し,単一の画像から深さと表面正規写像の両方を共同で予測する。
geonet++は、強い3d一貫性と鋭い境界を持つ深さと表面の正常を効果的に予測する。
画素単位の誤差/精度を評価することに焦点を当てた現在の測定値とは対照的に、3DGMは予測深度が高品質な3D表面の正常を再構築できるかどうかを測定する。
論文 参考訳(メタデータ) (2020-12-13T06:48:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。