論文の概要: Texture2LoD3: Enabling LoD3 Building Reconstruction With Panoramic Images
- arxiv url: http://arxiv.org/abs/2504.05249v1
- Date: Mon, 07 Apr 2025 16:40:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:13:44.141262
- Title: Texture2LoD3: Enabling LoD3 Building Reconstruction With Panoramic Images
- Title(参考訳): Texture2LoD3: パノラマ画像でLoD3を再構築
- Authors: Wenzhao Tang, Weihang Li, Xiucheng Liang, Olaf Wysocki, Filip Biljecki, Christoph Holst, Boris Jutzi,
- Abstract要約: Texture2LoD3では,3次元ビルディングモデルとパノラマストリートレベルの画像の両立を利用した新しい手法を提案する。
本手法がファサードセグメンテーション精度を11%向上させることを示した。
We believe that Texture2LoD3 can scale the adoption of LoD3 model, open application in the estimation building Solar potential or enhance autonomous driving simulations。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Despite recent advancements in surface reconstruction, Level of Detail (LoD) 3 building reconstruction remains an unresolved challenge. The main issue pertains to the object-oriented modelling paradigm, which requires georeferencing, watertight geometry, facade semantics, and low-poly representation -- Contrasting unstructured mesh-oriented models. In Texture2LoD3, we introduce a novel method leveraging the ubiquity of 3D building model priors and panoramic street-level images, enabling the reconstruction of LoD3 building models. We observe that prior low-detail building models can serve as valid planar targets for ortho-rectifying street-level panoramic images. Moreover, deploying segmentation on accurately textured low-level building surfaces supports maintaining essential georeferencing, watertight geometry, and low-poly representation for LoD3 reconstruction. In the absence of LoD3 validation data, we additionally introduce the ReLoD3 dataset, on which we experimentally demonstrate that our method leads to improved facade segmentation accuracy by 11% and can replace costly manual projections. We believe that Texture2LoD3 can scale the adoption of LoD3 models, opening applications in estimating building solar potential or enhancing autonomous driving simulations. The project website, code, and data are available here: https://wenzhaotang.github.io/Texture2LoD3/.
- Abstract(参考訳): 近年の表層改修の進展にもかかわらず、レベル・オブ・ディーテール(LoD)3の建物再建は未解決の課題である。
主な問題は、ジオレファレンス、水密な幾何学、ファサードのセマンティクス、貧弱な表現を必要とするオブジェクト指向モデリングパラダイムに関するもので、非構造化メッシュ指向モデルとは対照的である。
テクスチュア2LoD3では、3Dビルディングモデルとパノラマストリートレベルの画像の両立を利用した新しい手法を導入し、LoD3ビルディングモデルの再構築を可能にした。
我々は,従来の低次元建築モデルが,街路レベルのパノラマ画像の修正に有効な平面的ターゲットとして機能することを観察した。
さらに, 正確なテクスチャ化された低層建築物表面へのセグメンテーションの展開は, 重要なジオレファレンス, 防水構造, ローポーリー表現の維持を支えている。
また,LoD3検証データがない場合にはReLoD3データセットを導入し,提案手法がファサードセグメンテーション精度を11%向上させ,コストのかかる手動プロジェクションを置き換えることを実験的に実証した。
We believe that Texture2LoD3 can scale the adoption of LoD3 model, open application in the estimation building Solar potential or enhance autonomous driving simulations。
プロジェクトのWebサイト、コード、データはここにある。
関連論文リスト
- GeoLRM: Geometry-Aware Large Reconstruction Model for High-Quality 3D Gaussian Generation [65.33726478659304]
GeoLRM(Geometry-Aware Large Restruction Model)は、512kガウスと21の入力画像で11GBのGPUメモリで高品質な資産を予測できる手法である。
従来の作品では、3D構造の本質的な空間性は無視されており、3D画像と2D画像の間の明示的な幾何学的関係は利用されていない。
GeoLRMは、3Dポイントを直接処理し、変形可能なクロスアテンション機構を使用する新しい3D対応トランスフォーマー構造を導入することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2024-06-21T17:49:31Z) - DistillNeRF: Perceiving 3D Scenes from Single-Glance Images by Distilling Neural Fields and Foundation Model Features [65.8738034806085]
DistillNeRFは、自動運転シーンにおける3D環境を理解するための自己教師型学習フレームワークである。
本手法は,スパースで単一フレームのマルチビューカメラ入力からリッチなニューラルシーン表現を予測する一般化可能なフィードフォワードモデルである。
論文 参考訳(メタデータ) (2024-06-17T21:15:13Z) - GEOcc: Geometrically Enhanced 3D Occupancy Network with Implicit-Explicit Depth Fusion and Contextual Self-Supervision [49.839374549646884]
本稿では,視覚のみのサラウンドビュー知覚に適したジオメトリ強化OccupancyネットワークであるGEOccについて述べる。
提案手法は,Occ3D-nuScenesデータセット上で,画像解像度が最小で,画像バックボーンが最大である状態-Of-The-Art性能を実現する。
論文 参考訳(メタデータ) (2024-05-17T07:31:20Z) - MLS2LoD3: Refining low LoDs building models with MLS point clouds to
reconstruct semantic LoD3 building models [3.2732273647357446]
そこで我々は,低LODビルディングモデルとMLS点雲の精度を両立させることにより,LoD3復元を可能にする新しい改良戦略を提案する。
本稿では,LoD3ファサード要素の再構成ガイドラインとCityGML標準モデルへの埋め込みについて述べる。
論文 参考訳(メタデータ) (2024-02-09T09:56:23Z) - Unsupervised Roofline Extraction from True Orthophotos for LoD2 Building
Model Reconstruction [0.0]
本稿では,LoD2 レベルでの建築モデル再構築のためのライン検出手法として,真正正光線から屋根線を抽出する方法を提案する。
本手法は, 既設の平面検出法や最先端の深層学習法よりも, 再建された建物の精度と完全性において優れている。
論文 参考訳(メタデータ) (2023-10-02T10:23:08Z) - Scan2LoD3: Reconstructing semantic 3D building models at LoD3 using ray
casting and Bayesian networks [40.7734793392562]
詳細レベル(LoD)3でセマンティックな3Dビルディングモデルを再構築することは、長年にわたる課題である。
セマンティックなLoD3構築モデルを正確に再構築する新しい手法であるScan2LoD3を提案する。
提案手法は,LoD3における確率駆動型セマンティック3次元再構成の開発を促進できると考えている。
論文 参考訳(メタデータ) (2023-05-10T17:01:18Z) - Anything-3D: Towards Single-view Anything Reconstruction in the Wild [61.090129285205805]
本稿では,一連の視覚言語モデルとSegment-Anythingオブジェクトセグメンテーションモデルを組み合わせた方法論的フレームワークであるAnything-3Dを紹介する。
提案手法では、BLIPモデルを用いてテキスト記述を生成し、Segment-Anythingモデルを用いて関心対象を効果的に抽出し、テキスト・画像拡散モデルを用いて物体を神経放射場へ持ち上げる。
論文 参考訳(メタデータ) (2023-04-19T16:39:51Z) - MobileBrick: Building LEGO for 3D Reconstruction on Mobile Devices [78.20154723650333]
高品質な3次元地下構造は3次元物体再構成評価に不可欠である。
本稿では,モバイルデバイスを用いた新しいマルチビューRGBDデータセットを提案する。
我々は,ハイエンド3Dスキャナーを使わずに,精密な3次元地下構造が得られる。
論文 参考訳(メタデータ) (2023-03-03T14:02:50Z) - Elevation Estimation-Driven Building 3D Reconstruction from Single-View
Remote Sensing Imagery [20.001807614214922]
リモートセンシング画像からの3D再構築は、スマートシティやフォトグラムなどの分野に幅広い応用がある。
入力単視点リモートセンシング画像から3次元ビルディングモデルを再構築するための効率的なDSM推定駆動再構築フレームワーク(Building3D)を提案する。
我々のビル3Dは高度予測のためのSFFDEネットワークに根ざし、マスク構築のためのビル抽出ネットワークと同期し、点雲再構成、表面再構成(シティGMLモデル再構成)を順次実施する。
論文 参考訳(メタデータ) (2023-01-11T17:20:30Z) - LED2-Net: Monocular 360 Layout Estimation via Differentiable Depth
Rendering [59.63979143021241]
パノラマの地平線上での深度予測問題として360度レイアウト推定のタスクを定式化する。
レイアウトから深度予測への変換を区別できるように、差分可能な深度レンダリング手順を提案します。
提案手法は,360 レイアウトのベンチマークデータセットで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-04-01T15:48:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。