論文の概要: OB3D: A New Dataset for Benchmarking Omnidirectional 3D Reconstruction Using Blender
- arxiv url: http://arxiv.org/abs/2505.20126v1
- Date: Mon, 26 May 2025 15:25:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.566419
- Title: OB3D: A New Dataset for Benchmarking Omnidirectional 3D Reconstruction Using Blender
- Title(参考訳): OB3D:Blenderを用いた全方位3次元再構成のベンチマークのための新しいデータセット
- Authors: Shintaro Ito, Natsuki Takama, Toshiki Watanabe, Koichi Ito, Hwann-Tzong Chen, Takafumi Aoki,
- Abstract要約: Omnidirectional Blender 3D (OB3D) は、複数の全方位画像から3次元再構成を進めるための新しい合成データセットである。
OB3DはBlender 3Dプロジェクトから生成される多様で複雑な3Dシーンを特徴としている。
- 参考スコア(独自算出の注目度): 9.234032241605892
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in radiance field rendering, exemplified by Neural Radiance Fields (NeRF) and 3D Gaussian Splatting (3DGS), have significantly progressed 3D modeling and reconstruction. The use of multiple 360-degree omnidirectional images for these tasks is increasingly favored due to advantages in data acquisition and comprehensive scene capture. However, the inherent geometric distortions in common omnidirectional representations, such as equirectangular projection (particularly severe in polar regions and varying with latitude), pose substantial challenges to achieving high-fidelity 3D reconstructions. Current datasets, while valuable, often lack the specific focus, scene composition, and ground truth granularity required to systematically benchmark and drive progress in overcoming these omnidirectional-specific challenges. To address this critical gap, we introduce Omnidirectional Blender 3D (OB3D), a new synthetic dataset curated for advancing 3D reconstruction from multiple omnidirectional images. OB3D features diverse and complex 3D scenes generated from Blender 3D projects, with a deliberate emphasis on challenging scenarios. The dataset provides comprehensive ground truth, including omnidirectional RGB images, precise omnidirectional camera parameters, and pixel-aligned equirectangular maps for depth and normals, alongside evaluation metrics. By offering a controlled yet challenging environment, OB3Daims to facilitate the rigorous evaluation of existing methods and prompt the development of new techniques to enhance the accuracy and reliability of 3D reconstruction from omnidirectional images.
- Abstract(参考訳): ニューラルレイディアンス場(NeRF)と3次元ガウススプラッティング(3DGS)で実証された放射場レンダリングの最近の進歩は、3次元モデリングと再構成を著しく進歩させてきた。
これらのタスクに複数の360度全方位画像を使用することは、データ取得と総合的なシーンキャプチャの利点により、ますます好まれている。
しかし、等角射影(特に極域で重く、緯度で変化する)のような共通全方位表現における固有の幾何学的歪みは、高忠実度3D再構成を実現する上で大きな課題となる。
現在のデータセットは、価値はあるものの、これら全方向固有の課題を克服する上で、体系的にベンチマークし、前進させるために必要な、特定の焦点、シーン構成、基礎的な真実の粒度を欠いていることが多い。
この重要なギャップに対処するために、複数の全方位画像から3次元再構成を進めるための新しい合成データセットであるOmnidirectional Blender 3D (OB3D)を導入する。
OB3DはBlender 3Dプロジェクトから生成される多様で複雑な3Dシーンを特徴としている。
このデータセットは、全方位RGB画像、正確な全方位カメラパラメータ、深度と正常度のためのピクセル配列の等角写像、評価指標など、総合的な地平情報を提供する。
OB3Daimsは、制御されながら困難な環境を提供することで、既存の手法の厳密な評価を容易にし、全方位画像からの3次元再構成の精度と信頼性を高める新しい手法の開発を促進する。
関連論文リスト
- A Survey of 3D Reconstruction with Event Cameras: From Event-based Geometry to Neural 3D Rendering [12.287975720585802]
イベントカメラは、ピクセルごとの明るさ変化を非同期にキャプチャする能力のために、3D再構成のための有望なセンサーとして登場した。
従来のフレームベースのカメラとは異なり、スパースで時間的に豊かなデータストリームを生成し、より正確な3D再構成を可能にする。
本調査は,イベント駆動型3次元再構築における総合的なリファレンスと今後の展開のロードマップとして機能することを目的としている。
論文 参考訳(メタデータ) (2025-05-13T11:04:04Z) - Stereo4D: Learning How Things Move in 3D from Internet Stereo Videos [76.07894127235058]
本稿では,インターネットの立体視,広角ビデオから高品質な4D再構成をマイニングするシステムを提案する。
本研究では,この手法を用いて世界整合型擬似3次元点雲の形で大規模データを生成する。
DUSt3Rの変種をトレーニングし、実世界の画像対から構造と3次元運動を予測することで、このデータの有用性を実証する。
論文 参考訳(メタデータ) (2024-12-12T18:59:54Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - NeSLAM: Neural Implicit Mapping and Self-Supervised Feature Tracking With Depth Completion and Denoising [23.876281686625134]
我々は,高精度で密度の高い深度推定,ロバストなカメラトラッキング,新しいビューの現実的な合成を実現するフレームワークNeSLAMを提案する。
各種屋内データセットを用いた実験は、再構築、品質追跡、新しいビュー合成におけるシステムの有効性と精度を示す。
論文 参考訳(メタデータ) (2024-03-29T07:59:37Z) - Omni-Recon: Harnessing Image-based Rendering for General-Purpose Neural Radiance Fields [29.573344213110172]
Omni-Reconと呼ばれるフレームワークは、(1)一般化可能な3D再構成とゼロショットマルチタスクシーン理解、(2)リアルタイムレンダリングやシーン編集といった様々な下流3Dアプリケーションへの適応性を実現する。
具体的には、Omni-Reconは2つの分離枝を持つ画像ベースレンダリングを用いた汎用NeRFモデルを備えている。
この設計は、ゼロショットマルチタスクシーン理解のために、様々なタスクで再利用可能なブレンディングウェイトを用いて、最先端(SOTA)の一般化可能な3次元表面再構成品質を実現する。
論文 参考訳(メタデータ) (2024-03-17T07:47:26Z) - 3D-SceneDreamer: Text-Driven 3D-Consistent Scene Generation [51.64796781728106]
本稿では,2次元拡散モデル以前の自然画像と,現在のシーンのグローバルな3次元情報を利用して,高品質で新しいコンテンツを合成する生成的精細化ネットワークを提案する。
提案手法は,視覚的品質と3次元の整合性を改善した多種多様なシーン生成と任意のカメラトラジェクトリをサポートする。
論文 参考訳(メタデータ) (2024-03-14T14:31:22Z) - DUSt3R: Geometric 3D Vision Made Easy [8.471330244002564]
Dense and Unconstrained Stereo 3D Reconstruction of arbitrary image collections。
本定式化は単眼および両眼の再建症例を円滑に統一することを示す。
私たちの定式化はシーンの3Dモデルと深度情報を直接提供しますが、興味深いことに、シームレスに回復できます。
論文 参考訳(メタデータ) (2023-12-21T18:52:14Z) - R3D3: Dense 3D Reconstruction of Dynamic Scenes from Multiple Cameras [106.52409577316389]
R3D3は高密度3次元再構成とエゴモーション推定のためのマルチカメラシステムである。
提案手法は,複数のカメラからの時空間情報と単眼深度補正を利用する。
この設計により、困難で動的な屋外環境の密集した一貫した3次元再構成が可能になる。
論文 参考訳(メタデータ) (2023-08-28T17:13:49Z) - Multi-Modal Dataset Acquisition for Photometrically Challenging Object [56.30027922063559]
本稿では,3次元視覚タスクにおける現在のデータセットの限界について,精度,サイズ,リアリズム,および光度に挑戦する対象に対する適切な画像モダリティの観点から検討する。
既存の3次元認識と6次元オブジェクトポーズデータセットを強化する新しいアノテーションと取得パイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-21T10:38:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。