論文の概要: GeoTexBuild: 3D Building Model Generation from Map Footprints
- arxiv url: http://arxiv.org/abs/2504.08419v1
- Date: Fri, 11 Apr 2025 10:23:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-21 18:08:39.071671
- Title: GeoTexBuild: 3D Building Model Generation from Map Footprints
- Title(参考訳): GeoTexBuild: マップのフットプリントから3Dビルディングモデル生成
- Authors: Ruizhe Wang, Junyan Yang, Qiao Wang,
- Abstract要約: GeoTexBuildは、マップフットプリントから3Dビルディングモデルを作成するためのモジュラー生成フレームワークである。
我々のフレームワークは、建物をモデル化する際の手作業を大幅に削減し、デザイナーにインスピレーションを与えることができる。
- 参考スコア(独自算出の注目度): 8.826297606470824
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce GeoTexBuild, a modular generative framework for creating 3D building models from map footprints. The proposed framework employs a three-stage process comprising height map generation, geometry reconstruction, and appearance stylization, culminating in building models with intricate geometry and appearance attributes. By integrating customized ControlNet and Text2Mesh models, we explore effective methods for controlling both geometric and visual attributes during the generation process. By this, we eliminate the problem of structural variations behind a single facade photo of the existing 3D generation techniques. Experimental results at each stage validate the capability of GeoTexBuild to generate detailed and accurate building models from footprints derived from site planning or map designs. Our framework significantly reduces manual labor in modeling buildings and can offer inspiration for designers.
- Abstract(参考訳): マップフットプリントから3Dビルディングモデルを作成するためのモジュール型生成フレームワークであるGeoTexBuildを紹介した。
提案手法は,高度マップ生成,幾何再構成,外観スタイライゼーションを含む3段階のプロセスを用いて,複雑な形状と外観特性を持つ建築モデルで決定される。
カスタマイズされたControlNetとText2Meshモデルを統合することで、生成プロセス中に幾何学的属性と視覚的属性の両方を制御する効果的な方法を模索する。
これにより、既存の3次元生成技術の1つのファサード写真の背後にある構造変化の問題は解消される。
それぞれのステージにおける実験結果は、GeoTexBuildが、サイト計画やマップ設計から派生したフットプリントから、詳細で正確なビルディングモデルを生成する能力を検証する。
我々のフレームワークは、建物をモデル化する際の手作業を大幅に削減し、デザイナーにインスピレーションを与えることができる。
関連論文リスト
- GeoWorld: Unlocking the Potential of Geometry Models to Facilitate High-Fidelity 3D Scene Generation [68.02988074681427]
画像から3Dのシーン生成にビデオモデルを利用する以前の研究は、幾何学的歪みやぼやけた内容に悩まされる傾向にある。
本稿では,幾何学モデルの可能性を解き放つことにより,画像から3次元のシーン生成のパイプラインを再構築する。
我々のGeoWorldは、1つの画像と所定のカメラ軌道から高忠実度3Dシーンを生成することができ、定性的かつ定量的に先行手法より優れている。
論文 参考訳(メタデータ) (2025-11-28T13:55:45Z) - WorldGrow: Generating Infinite 3D World [75.81531067447203]
我々は、無限に拡張可能な3D世界、すなわちコヒーレントな幾何学と現実的な外観を持つ大規模で連続的な環境を生み出すという課題に取り組む。
本研究では,非有界な3次元シーン合成のための階層的フレームワークWorldGrowを提案する。
提案手法は,(1)高品質なシーンブロックを抽出し,シーン生成に適した3D構造化潜在表現を作成するデータキュレーションパイプライン,(2)コンテキスト認識シーン拡張を可能にする3Dブロックインペイント機構,(3)グローバルなレイアウトの妥当性と局所幾何学的/音声的忠実性の両立を保証する粗大かつ微細な生成戦略,の3つのコアコンポーネントを特徴とする。
論文 参考訳(メタデータ) (2025-10-24T17:39:52Z) - Controllable Generation of Large-Scale 3D Urban Layouts with Semantic and Structural Guidance [7.298148118365382]
大規模3次元ベクトル都市レイアウト生成のための制御可能なフレームワークを提案する。
幾何学的特徴や意味的属性,エッジ重み,建物の高さをグラフに埋め込むことで,本手法は2次元レイアウトをリアルな3次元構造に拡張する。
論文 参考訳(メタデータ) (2025-09-28T11:08:17Z) - ART-DECO: Arbitrary Text Guidance for 3D Detailizer Construction [31.513768848094227]
粗い3D形状プロキシを高品質なアセットに即時に変換できるニューラルネットワークである3Dディファレンサを導入する。
我々のモデルはテキストプロンプトを用いて訓練され、形状クラスを定義し、生成した詳細の外観ときめ細かいスタイルを特徴付ける。
我々の精細化器は単一形状に最適化されておらず、生成モデルを蒸留した結果であり、再学習せずに再利用でき、任意の形状を生成することができる。
論文 参考訳(メタデータ) (2025-05-26T18:26:16Z) - Cube: A Roblox View of 3D Intelligence [67.43470288767679]
膨大な量のデータに基づいてトレーニングされた基礎モデルは、驚くべき推論と生成能力を示している。
本稿では,テキスト・ツー・シェイプ生成,形状・ツー・テキスト生成,テキスト・ツー・シーン生成などに適用可能なトークン化方式について述べる。
我々は、3Dインテリジェンスのための完全に統一された基礎モデルを構築するための私たちの道筋を概説した議論で締めくくります。
論文 参考訳(メタデータ) (2025-03-19T17:52:17Z) - SuperCarver: Texture-Consistent 3D Geometry Super-Resolution for High-Fidelity Surface Detail Generation [70.76810765911499]
SuperCarverは、粗いメッシュにテクスチャ一貫性のある表面の詳細を追加するのに適した3Dジオメトリフレームワークである。
幾何的詳細生成を実現するために,2つのペアの低極性および高極性正規レンダリングのデータセットに微調整を施した決定論的事前誘導正規拡散モデルを開発した。
メッシュ構造を、潜在的に不完全な正規写像予測から最適化するために、単純で効果的なノイズ耐性逆レンダリング方式を設計する。
論文 参考訳(メタデータ) (2025-03-12T14:38:45Z) - Shape from Semantics: 3D Shape Generation from Multi-View Semantics [30.969299308083723]
既存の3D再構成手法では, 3次元画像, 3次元点雲, 形状輪郭, 単一意味論などのガイダンスを用いて3次元表面を復元する。
図形や外観が、異なる視点から見ると、与えられたテキストの意味と一致した3Dモデルを作成することを目的として、新しい3Dモデリングタスク「Shape from Semantics'」を提案する。
論文 参考訳(メタデータ) (2025-02-01T07:51:59Z) - Proc-GS: Procedural Building Generation for City Assembly with 3D Gaussians [65.09942210464747]
資産の創出は労働集約的であり、設計ルールを開発するには専門的なスキルが必要である。
作成のための最近の生成モデルは、しばしばこれらのパターンを見落とし、視覚的忠実度が低く、スケーラビリティが制限される。
手続き的なコードを操作することで、このプロセスを合理化し、無限に多様な建物を生成することができます。
論文 参考訳(メタデータ) (2024-12-10T16:45:32Z) - DreamPolish: Domain Score Distillation With Progressive Geometry Generation [66.94803919328815]
本稿では,高精細な幾何学と高品質なテクスチャの創出に優れたテキスト・ツー・3D生成モデルであるDreamPolishを紹介する。
幾何構成フェーズでは, 合成過程の安定性を高めるために, 複数のニューラル表現を利用する。
テクスチャ生成フェーズでは、そのような領域に向けて神経表現を導くために、新しいスコア蒸留、すなわちドメインスコア蒸留(DSD)を導入する。
論文 参考訳(メタデータ) (2024-11-03T15:15:01Z) - DECOLLAGE: 3D Detailization by Controllable, Localized, and Learned Geometry Enhancement [38.719572669042925]
エンドユーザーが機械学習を用いて3次元形状を洗練・詳細化できる3Dモデリング手法を提案する。
詳細をローカライズする能力は、新しいインタラクティブな創造性と応用を可能にする。
論文 参考訳(メタデータ) (2024-09-10T00:51:49Z) - GeoLRM: Geometry-Aware Large Reconstruction Model for High-Quality 3D Gaussian Generation [65.33726478659304]
GeoLRM(Geometry-Aware Large Restruction Model)は、512kガウスと21の入力画像で11GBのGPUメモリで高品質な資産を予測できる手法である。
従来の作品では、3D構造の本質的な空間性は無視されており、3D画像と2D画像の間の明示的な幾何学的関係は利用されていない。
GeoLRMは、3Dポイントを直接処理し、変形可能なクロスアテンション機構を使用する新しい3D対応トランスフォーマー構造を導入することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2024-06-21T17:49:31Z) - Embedded Shape Matching in Photogrammetry Data for Modeling Making
Knowledge [0.0]
投影法により得られた2次元サンプルを用いて3次元モデルにおけるパターン認識の難しさを克服する。
このアプリケーションは、ゼウグマモザイクのいくつかの例とセルジューク時代のレンガ壁の3次元デジタルモデリングに基づく。
論文 参考訳(メタデータ) (2023-12-20T23:52:53Z) - TwinTex: Geometry-aware Texture Generation for Abstracted 3D
Architectural Models [13.248386665044087]
我々はTwinTexについて紹介する。TwinTexは写真にリアルなテクスチャを生成する最初の自動テクスチャマッピングフレームワークである。
提案手法は, 高品質なテクスチャマッピング手法を超越し, より少ない労力で, 熟練した生産水準に達する。
論文 参考訳(メタデータ) (2023-09-20T12:33:53Z) - ShaDDR: Interactive Example-Based Geometry and Texture Generation via 3D
Shape Detailization and Differentiable Rendering [24.622120688131616]
ShaDDRは、高分解能なテクスチャ化された3D形状を生成するサンプルベースのディープ生成ニューラルネットワークである。
本手法は,マルチレゾリューションボクセルアップサンプリングによる幾何学の精密化と,ボクセル表面のテクスチャの生成を学習する。
生成された形状は、入力された粗いボクセルモデルの全体構造を保存する。
論文 参考訳(メタデータ) (2023-06-08T02:35:30Z) - Single-view 3D Mesh Reconstruction for Seen and Unseen Categories [69.29406107513621]
シングルビュー3Dメッシュ再構成は、シングルビューRGB画像から3D形状を復元することを目的とした、基本的なコンピュータビジョンタスクである。
本稿では,一視点3Dメッシュ再構成に取り組み,未知のカテゴリのモデル一般化について検討する。
我々は、再構築におけるカテゴリ境界を断ち切るために、エンドツーエンドの2段階ネットワークであるGenMeshを提案する。
論文 参考訳(メタデータ) (2022-08-04T14:13:35Z) - Automated LoD-2 Model Reconstruction from Very-HighResolution
Satellite-derived Digital Surface Model and Orthophoto [1.2691047660244335]
本稿では,LoD-2ビルディングモデルを「分解最適化最適化」パラダイムに従って再構成するモデル駆動手法を提案する。
提案手法は,既存の手法に対するいくつかの技術的問題点に対処し,その有効性を実証した。
論文 参考訳(メタデータ) (2021-09-08T19:03:09Z) - 3DStyleNet: Creating 3D Shapes with Geometric and Texture Style
Variations [81.45521258652734]
本稿では,3次元オブジェクトの幾何学的・テクスチャ的バリエーションを多用する手法を提案する。
提案手法は,多くの新しいスタイルの形状を作成でき,その結果,無駄な3Dコンテンツ作成とスタイルウェアデータ拡張を実現している。
論文 参考訳(メタデータ) (2021-08-30T02:28:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。