論文の概要: GeoTexBuild: 3D Building Model Generation from Map Footprints
- arxiv url: http://arxiv.org/abs/2504.08419v1
- Date: Fri, 11 Apr 2025 10:23:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-14 14:18:48.538471
- Title: GeoTexBuild: 3D Building Model Generation from Map Footprints
- Title(参考訳): GeoTexBuild: マップのフットプリントから3Dビルディングモデル生成
- Authors: Ruizhe Wang, Junyan Yang, Qiao Wang,
- Abstract要約: GeoTexBuildは、マップフットプリントから3Dビルディングモデルを作成するためのモジュラー生成フレームワークである。
我々のフレームワークは、建物をモデル化する際の手作業を大幅に削減し、デザイナーにインスピレーションを与えることができる。
- 参考スコア(独自算出の注目度): 8.826297606470824
- License:
- Abstract: We introduce GeoTexBuild, a modular generative framework for creating 3D building models from map footprints. The proposed framework employs a three-stage process comprising height map generation, geometry reconstruction, and appearance stylization, culminating in building models with intricate geometry and appearance attributes. By integrating customized ControlNet and Text2Mesh models, we explore effective methods for controlling both geometric and visual attributes during the generation process. By this, we eliminate the problem of structural variations behind a single facade photo of the existing 3D generation techniques. Experimental results at each stage validate the capability of GeoTexBuild to generate detailed and accurate building models from footprints derived from site planning or map designs. Our framework significantly reduces manual labor in modeling buildings and can offer inspiration for designers.
- Abstract(参考訳): マップフットプリントから3Dビルディングモデルを作成するためのモジュール型生成フレームワークであるGeoTexBuildを紹介した。
提案手法は,高度マップ生成,幾何再構成,外観スタイライゼーションを含む3段階のプロセスを用いて,複雑な形状と外観特性を持つ建築モデルで決定される。
カスタマイズされたControlNetとText2Meshモデルを統合することで、生成プロセス中に幾何学的属性と視覚的属性の両方を制御する効果的な方法を模索する。
これにより、既存の3次元生成技術の1つのファサード写真の背後にある構造変化の問題は解消される。
それぞれのステージにおける実験結果は、GeoTexBuildが、サイト計画やマップ設計から派生したフットプリントから、詳細で正確なビルディングモデルを生成する能力を検証する。
我々のフレームワークは、建物をモデル化する際の手作業を大幅に削減し、デザイナーにインスピレーションを与えることができる。
関連論文リスト
- Textured Mesh Saliency: Bridging Geometry and Texture for Human Perception in 3D Graphics [50.23625950905638]
6自由度(6-DOF)VR環境下での革新的な視線追跡実験により構築したテクスチャメッシュ・サリエンシのための新しいデータセットを提案する。
本モデルでは,各三角形の面を個々の単位として扱い,各局所表面領域の重要性を反映した塩分濃度値を割り当てることで,テクスチャメッシュ表面の塩分濃度マップを推定する。
論文 参考訳(メタデータ) (2024-12-11T08:27:33Z) - Proc-GS: Procedural Building Generation for City Assembly with 3D Gaussians [65.09942210464747]
資産の創出は労働集約的であり、設計ルールを開発するには専門的なスキルが必要である。
作成のための最近の生成モデルは、しばしばこれらのパターンを見落とし、視覚的忠実度が低く、スケーラビリティが制限される。
手続き的なコードを操作することで、このプロセスを合理化し、無限に多様な建物を生成することができます。
論文 参考訳(メタデータ) (2024-12-10T16:45:32Z) - DreamPolish: Domain Score Distillation With Progressive Geometry Generation [66.94803919328815]
本稿では,高精細な幾何学と高品質なテクスチャの創出に優れたテキスト・ツー・3D生成モデルであるDreamPolishを紹介する。
幾何構成フェーズでは, 合成過程の安定性を高めるために, 複数のニューラル表現を利用する。
テクスチャ生成フェーズでは、そのような領域に向けて神経表現を導くために、新しいスコア蒸留、すなわちドメインスコア蒸留(DSD)を導入する。
論文 参考訳(メタデータ) (2024-11-03T15:15:01Z) - DECOLLAGE: 3D Detailization by Controllable, Localized, and Learned Geometry Enhancement [38.719572669042925]
エンドユーザーが機械学習を用いて3次元形状を洗練・詳細化できる3Dモデリング手法を提案する。
詳細をローカライズする能力は、新しいインタラクティブな創造性と応用を可能にする。
論文 参考訳(メタデータ) (2024-09-10T00:51:49Z) - GeoLRM: Geometry-Aware Large Reconstruction Model for High-Quality 3D Gaussian Generation [65.33726478659304]
GeoLRM(Geometry-Aware Large Restruction Model)は、512kガウスと21の入力画像で11GBのGPUメモリで高品質な資産を予測できる手法である。
従来の作品では、3D構造の本質的な空間性は無視されており、3D画像と2D画像の間の明示的な幾何学的関係は利用されていない。
GeoLRMは、3Dポイントを直接処理し、変形可能なクロスアテンション機構を使用する新しい3D対応トランスフォーマー構造を導入することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2024-06-21T17:49:31Z) - Embedded Shape Matching in Photogrammetry Data for Modeling Making
Knowledge [0.0]
投影法により得られた2次元サンプルを用いて3次元モデルにおけるパターン認識の難しさを克服する。
このアプリケーションは、ゼウグマモザイクのいくつかの例とセルジューク時代のレンガ壁の3次元デジタルモデリングに基づく。
論文 参考訳(メタデータ) (2023-12-20T23:52:53Z) - TwinTex: Geometry-aware Texture Generation for Abstracted 3D
Architectural Models [13.248386665044087]
我々はTwinTexについて紹介する。TwinTexは写真にリアルなテクスチャを生成する最初の自動テクスチャマッピングフレームワークである。
提案手法は, 高品質なテクスチャマッピング手法を超越し, より少ない労力で, 熟練した生産水準に達する。
論文 参考訳(メタデータ) (2023-09-20T12:33:53Z) - ShaDDR: Interactive Example-Based Geometry and Texture Generation via 3D
Shape Detailization and Differentiable Rendering [24.622120688131616]
ShaDDRは、高分解能なテクスチャ化された3D形状を生成するサンプルベースのディープ生成ニューラルネットワークである。
本手法は,マルチレゾリューションボクセルアップサンプリングによる幾何学の精密化と,ボクセル表面のテクスチャの生成を学習する。
生成された形状は、入力された粗いボクセルモデルの全体構造を保存する。
論文 参考訳(メタデータ) (2023-06-08T02:35:30Z) - Visual Localization using Imperfect 3D Models from the Internet [54.731309449883284]
本稿では,3次元モデルにおける欠陥が局所化精度に与える影響について検討する。
インターネットから得られる3Dモデルは、容易に表現できるシーン表現として有望であることを示す。
論文 参考訳(メタデータ) (2023-04-12T16:15:05Z) - Single-view 3D Mesh Reconstruction for Seen and Unseen Categories [69.29406107513621]
シングルビュー3Dメッシュ再構成は、シングルビューRGB画像から3D形状を復元することを目的とした、基本的なコンピュータビジョンタスクである。
本稿では,一視点3Dメッシュ再構成に取り組み,未知のカテゴリのモデル一般化について検討する。
我々は、再構築におけるカテゴリ境界を断ち切るために、エンドツーエンドの2段階ネットワークであるGenMeshを提案する。
論文 参考訳(メタデータ) (2022-08-04T14:13:35Z) - Automated LoD-2 Model Reconstruction from Very-HighResolution
Satellite-derived Digital Surface Model and Orthophoto [1.2691047660244335]
本稿では,LoD-2ビルディングモデルを「分解最適化最適化」パラダイムに従って再構成するモデル駆動手法を提案する。
提案手法は,既存の手法に対するいくつかの技術的問題点に対処し,その有効性を実証した。
論文 参考訳(メタデータ) (2021-09-08T19:03:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。