論文の概要: CULTURE3D: A Large-Scale and Diverse Dataset of Cultural Landmarks and Terrains for Gaussian-Based Scene Rendering
- arxiv url: http://arxiv.org/abs/2501.06927v3
- Date: Wed, 09 Jul 2025 14:35:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-10 15:30:51.997645
- Title: CULTURE3D: A Large-Scale and Diverse Dataset of Cultural Landmarks and Terrains for Gaussian-Based Scene Rendering
- Title(参考訳): CULTURE3D:ガウス的シーンレンダリングのための文化的ランドマークと地形の大規模・多角的データセット
- Authors: Xinyi Zheng, Steve Zhang, Weizhe Lin, Aaron Zhang, Walterio W. Mayol-Cuevas, Yunze Liu, Junxiao Shen,
- Abstract要約: 現在の最先端の3D再構築モデルは、大規模な屋外シーンを構築する際の限界に直面している。
本稿では,41,006個のドローンによる高解像度空中画像からなる100億点の細粒度データセットを提案する。
既存のデータセットと比較すると、我々は非常に大きなスケールと詳細を提供しており、きめ細かい3Dアプリケーションに特化しています。
- 参考スコア(独自算出の注目度): 12.299096433876676
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current state-of-the-art 3D reconstruction models face limitations in building extra-large scale outdoor scenes, primarily due to the lack of sufficiently large-scale and detailed datasets. In this paper, we present a extra-large fine-grained dataset with 10 billion points composed of 41,006 drone-captured high-resolution aerial images, covering 20 diverse and culturally significant scenes from worldwide locations such as Cambridge Uni main buildings, the Pyramids, and the Forbidden City Palace. Compared to existing datasets, ours offers significantly larger scale and higher detail, uniquely suited for fine-grained 3D applications. Each scene contains an accurate spatial layout and comprehensive structural information, supporting detailed 3D reconstruction tasks. By reconstructing environments using these detailed images, our dataset supports multiple applications, including outputs in the widely adopted COLMAP format, establishing a novel benchmark for evaluating state-of-the-art large-scale Gaussian Splatting methods.The dataset's flexibility encourages innovations and supports model plug-ins, paving the way for future 3D breakthroughs. All datasets and code will be open-sourced for community use.
- Abstract(参考訳): 現在の最先端の3D再構成モデルは、大規模な屋外シーンを構築する際の限界に直面している。
本稿では,ケンブリッジ大学バークレー校のメインビルディング,ピラミド,禁酒都市宮殿など,世界中の20の多彩で文化的に重要なシーンを網羅した,41,006個のドローン捕獲高解像度空中画像からなる100億点の超微細なデータセットを提案する。
既存のデータセットと比較すると、我々は非常に大きなスケールと詳細を提供しており、きめ細かい3Dアプリケーションに特化しています。
各シーンは正確な空間配置と包括的な構造情報を含み、詳細な3D再構成タスクをサポートする。
これらの詳細な画像を用いて環境を再構築することにより、我々のデータセットは、広く採用されているCOLMAPフォーマットの出力を含む複数のアプリケーションをサポートし、最先端の大規模ガウススプラッティング手法を評価するための新しいベンチマークを確立します。
すべてのデータセットとコードは、コミュニティ利用のためにオープンソース化される。
関連論文リスト
- Towards Scalable Spatial Intelligence via 2D-to-3D Data Lifting [64.64738535860351]
単一ビュー画像を包括的・スケール的・外観リアルな3D表現に変換するスケーラブルなパイプラインを提案する。
本手法は,画像の膨大な保存と空間的シーン理解への需要の増大とのギャップを埋めるものである。
画像から精度の高い3Dデータを自動的に生成することにより,データ収集コストを大幅に削減し,空間知性を向上するための新たな道を開く。
論文 参考訳(メタデータ) (2025-07-24T14:53:26Z) - HuSc3D: Human Sculpture dataset for 3D object reconstruction [0.0]
HuSc3Dは、3D再構成モデルの厳密なベンチマークのために、現実的な取得課題下で特別に設計された、新しいデータセットである。
我々のデータセットは、複雑な穿孔と最小限のテクスチャと色の変化を特徴とする、非常に詳細で完全に白い6つの彫刻を特徴としている。
論文 参考訳(メタデータ) (2025-06-09T10:47:02Z) - DeepWheel: Generating a 3D Synthetic Wheel Dataset for Design and Performance Evaluation [3.3148826359547523]
本研究では,生成AIを用いた合成設計・性能データセット生成フレームワークを提案する。
このフレームワークは、まず安定拡散を用いて2次元描画画像を生成し、2.5次元深さ推定により3次元形状を再構成する。
最終データセットはDeepWheelと呼ばれ、6000以上の写真リアル画像と900以上の構造解析された3Dモデルで構成されている。
論文 参考訳(メタデータ) (2025-04-15T16:20:00Z) - Textured Mesh Saliency: Bridging Geometry and Texture for Human Perception in 3D Graphics [50.23625950905638]
6自由度(6-DOF)VR環境下での革新的な視線追跡実験により構築したテクスチャメッシュ・サリエンシのための新しいデータセットを提案する。
本モデルでは,各三角形の面を個々の単位として扱い,各局所表面領域の重要性を反映した塩分濃度値を割り当てることで,テクスチャメッシュ表面の塩分濃度マップを推定する。
論文 参考訳(メタデータ) (2024-12-11T08:27:33Z) - Open-Vocabulary High-Resolution 3D (OVHR3D) Data Segmentation and Annotation Framework [1.1280113914145702]
本研究の目的は,3次元セグメンテーションタスクのための包括的で効率的なフレームワークの設計と開発である。
このフレームワークはGrounding DINOとSegment Any Modelを統合し、3Dメッシュによる2D画像レンダリングの強化によって強化される。
論文 参考訳(メタデータ) (2024-12-09T07:39:39Z) - GeoLRM: Geometry-Aware Large Reconstruction Model for High-Quality 3D Gaussian Generation [65.33726478659304]
GeoLRM(Geometry-Aware Large Restruction Model)は、512kガウスと21の入力画像で11GBのGPUメモリで高品質な資産を予測できる手法である。
従来の作品では、3D構造の本質的な空間性は無視されており、3D画像と2D画像の間の明示的な幾何学的関係は利用されていない。
GeoLRMは、3Dポイントを直接処理し、変形可能なクロスアテンション機構を使用する新しい3D対応トランスフォーマー構造を導入することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2024-06-21T17:49:31Z) - MegaScenes: Scene-Level View Synthesis at Scale [69.21293001231993]
NVS (Scene-level novel view synthesis) は多くの視覚やグラフィックスの応用に基礎を置いている。
MegaScenesと呼ばれるインターネット写真コレクションから大規模なシーンレベルのデータセットを作成し、世界中の動き(SfM)から100K以上の構造を復元する。
我々は、最先端NVS手法の故障事例を分析し、生成一貫性を大幅に改善する。
論文 参考訳(メタデータ) (2024-06-17T17:55:55Z) - Zero-Shot Multi-Object Scene Completion [59.325611678171974]
1枚のRGB-D画像から複雑なシーンにおける複数の見えない物体の完全な形状を復元する3Dシーン補完法を提案する。
提案手法は, 合成および実世界の両方のデータセットにおいて, 現在の最先端技術よりも優れている。
論文 参考訳(メタデータ) (2024-03-21T17:59:59Z) - Den-SOFT: Dense Space-Oriented Light Field DataseT for 6-DOF Immersive Experience [28.651514326042648]
我々は,移動式マルチカメラ大空間高密度光場キャプチャシステムを構築した。
本研究の目的は,一般的な3次元シーン再構築アルゴリズムの開発に貢献することである。
収集されたデータセットは、既存のデータセットよりもはるかに密度が高い。
論文 参考訳(メタデータ) (2024-03-15T02:39:44Z) - GauU-Scene: A Scene Reconstruction Benchmark on Large Scale 3D
Reconstruction Dataset Using Gaussian Splatting [5.968501319323899]
本稿では,新たに開発された3D表現手法であるガウス・スプラッティングを用いた大規模シーン再構築ベンチマークを提案する。
U-Sceneは、RGBデータセットとLiDARの地上真実を包含した、1平方キロメートル以上に及ぶ。
このデータセットは、高度な空間分析のための都市環境と学術環境のユニークなブレンドを提供する。
論文 参考訳(メタデータ) (2024-01-25T09:22:32Z) - Pyramid Diffusion for Fine 3D Large Scene Generation [56.00726092690535]
拡散モデルは2次元画像と小型3次元オブジェクトの生成において顕著な結果を示した。
大規模な3Dシーンの合成への応用はめったに研究されていない。
本稿では,大規模拡散モデルを用いて,高品質な屋外シーンを段階的に生成するフレームワークであるPraamid Discrete Diffusion Model (PDD)を紹介する。
論文 参考訳(メタデータ) (2023-11-20T11:24:21Z) - Multi-Modal Dataset Acquisition for Photometrically Challenging Object [56.30027922063559]
本稿では,3次元視覚タスクにおける現在のデータセットの限界について,精度,サイズ,リアリズム,および光度に挑戦する対象に対する適切な画像モダリティの観点から検討する。
既存の3次元認識と6次元オブジェクトポーズデータセットを強化する新しいアノテーションと取得パイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-21T10:38:32Z) - AutoDecoding Latent 3D Diffusion Models [95.7279510847827]
本稿では,3次元オートデコーダをコアとした静的・明瞭な3次元アセットの生成に対して,新しいアプローチを提案する。
3D Autodecoderフレームワークは、ターゲットデータセットから学んだプロパティを潜時空間に埋め込む。
次に、適切な中間体積潜在空間を特定し、ロバストな正規化と非正規化演算を導入する。
論文 参考訳(メタデータ) (2023-07-07T17:59:14Z) - UniG3D: A Unified 3D Object Generation Dataset [75.49544172927749]
UniG3Dは、ShapeNetデータセット上に普遍的なデータ変換パイプラインを用いて構築された、統一された3Dオブジェクト生成データセットである。
このパイプラインは、各生の3Dモデルを包括的なマルチモーダルデータ表現に変換する。
データセットのデータソースの選択は、そのスケールと品質に基づいています。
論文 参考訳(メタデータ) (2023-06-19T07:03:45Z) - MobileBrick: Building LEGO for 3D Reconstruction on Mobile Devices [78.20154723650333]
高品質な3次元地下構造は3次元物体再構成評価に不可欠である。
本稿では,モバイルデバイスを用いた新しいマルチビューRGBDデータセットを提案する。
我々は,ハイエンド3Dスキャナーを使わずに,精密な3次元地下構造が得られる。
論文 参考訳(メタデータ) (2023-03-03T14:02:50Z) - ROAD: Learning an Implicit Recursive Octree Auto-Decoder to Efficiently
Encode 3D Shapes [32.267066838654834]
複雑な3次元形状の大規模データセットを効率よく正確に符号化する新しい暗黙表現を提案する。
暗黙的再帰的Octree Auto-Decoder (ROAD) は階層的に構造化された潜在空間を学習し、圧縮比99%以上で最先端の復元結果を実現する。
論文 参考訳(メタデータ) (2022-12-12T19:09:47Z) - A Real World Dataset for Multi-view 3D Reconstruction [28.298548207213468]
日常のテーブルトップオブジェクトの371個の3Dモデルと,実世界のRGBと深度画像のデータセットを提示する。
私たちは主に、タスクに適切な実世界のベンチマークがないため、学習したマルチビューの3D再構成に注目し、データセットがそのギャップを埋めることを示す。
論文 参考訳(メタデータ) (2022-03-22T00:15:54Z) - Ground material classification and for UAV-based photogrammetric 3D data
A 2D-3D Hybrid Approach [1.3359609092684614]
近年,物理環境を表す3次元仮想データを作成するために,多くの領域でフォトグラム法が広く用いられている。
これらの最先端技術は、迅速な3D戦場再建、仮想訓練、シミュレーションを目的として、アメリカ陸軍と海軍の注意を引き付けている。
論文 参考訳(メタデータ) (2021-09-24T22:29:26Z) - Towards Semantic Segmentation of Urban-Scale 3D Point Clouds: A Dataset,
Benchmarks and Challenges [52.624157840253204]
我々は、30億点近い注釈付きポイントを持つ都市規模の測光点クラウドデータセットを提示する。
私たちのデータセットは、イギリスの3つの都市からなり、都市の景観の約7.6km2をカバーしています。
我々は,データセット上での最先端アルゴリズムの性能を評価し,その結果を包括的に分析する。
論文 参考訳(メタデータ) (2020-09-07T14:47:07Z) - HoliCity: A City-Scale Data Platform for Learning Holistic 3D Structures [39.2984574045825]
このデータセットには6,300個の現実世界のパノラマがあり、ロンドンのダウンタウンのCADモデルと正確に一致しており、面積は20km2である。
このデータセットの最終的な目標は、都市再建、マッピング、拡張現実のための実際のアプリケーションをサポートすることだ。
論文 参考訳(メタデータ) (2020-08-07T17:34:47Z) - LayoutMP3D: Layout Annotation of Matterport3D [59.11106101006007]
Matterport3Dデータセットは、当初提供されていた深度マップ基底真理と共に検討し、さらにMatterport3Dのサブセットからレイアウト基底真理のアノテーションを公開します。
私たちのデータセットはレイアウト情報と深度情報の両方を提供しており、両方のキューを統合することで環境を探索する機会を提供します。
論文 参考訳(メタデータ) (2020-03-30T14:40:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。