論文の概要: DiffTex: Differentiable Texturing for Architectural Proxy Models
- arxiv url: http://arxiv.org/abs/2509.23336v2
- Date: Tue, 30 Sep 2025 10:15:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 12:20:10.39494
- Title: DiffTex: Differentiable Texturing for Architectural Proxy Models
- Title(参考訳): DiffTex: アーキテクチャプロキシモデルのための微分可能なテクスチャ
- Authors: Weidan Xiong, Yongli Wu, Bochuan Zeng, Jianwei Guo, Dani Lischinski, Daniel Cohen-Or, Hui Huang,
- Abstract要約: 非秩序な写真からテクセルレベルでアーキテクチャプロキシモデルのための現実的なテクスチャマップを自動生成する手法を提案する。
提案手法は,UVマップ上のテックセルと入力画像中のピクセルとの対応性を確立し,各テクセルの色を関連するピクセル値の重み付けとして計算する。
- 参考スコア(独自算出の注目度): 63.370581207280004
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Simplified proxy models are commonly used to represent architectural structures, reducing storage requirements and enabling real-time rendering. However, the geometric simplifications inherent in proxies result in a loss of fine color and geometric details, making it essential for textures to compensate for the loss. Preserving the rich texture information from the original dense architectural reconstructions remains a daunting task, particularly when working with unordered RGB photographs. We propose an automated method for generating realistic texture maps for architectural proxy models at the texel level from an unordered collection of registered photographs. Our approach establishes correspondences between texels on a UV map and pixels in the input images, with each texel's color computed as a weighted blend of associated pixel values. Using differentiable rendering, we optimize blending parameters to ensure photometric and perspective consistency, while maintaining seamless texture coherence. Experimental results demonstrate the effectiveness and robustness of our method across diverse architectural models and varying photographic conditions, enabling the creation of high-quality textures that preserve visual fidelity and structural detail.
- Abstract(参考訳): シンプルなプロキシモデルは、一般的にアーキテクチャ構造を表現するために使われ、ストレージ要件を減らし、リアルタイムレンダリングを可能にする。
しかし、プロキシに固有の幾何学的単純化は、細かな色と幾何学的詳細の損失をもたらすため、テクスチャが損失を補うことが不可欠である。
もともとの密集した建築再建から豊富なテクスチャ情報を保存することは、特に秩序のないRGB写真を扱う場合、大変な作業である。
本稿では,未注文の写真コレクションからテクセルレベルでのアーキテクチャプロキシモデルのための現実的なテクスチャマップの自動生成手法を提案する。
提案手法は,UVマップ上のテックセルと入力画像中のピクセルとの対応性を確立し,各テクセルの色を関連するピクセル値の重み付けとして計算する。
微分可能なレンダリングを用いて、シームレスなテクスチャコヒーレンスを維持しながら、光度と視点の整合性を確保するために、ブレンディングパラメータを最適化する。
実験により,多種多様な建築モデルと様々な写真条件にまたがる手法の有効性と堅牢性を示し,視覚的忠実さと構造的詳細さを保った高品質なテクスチャの創出を可能にした。
関連論文リスト
- Directing Mamba to Complex Textures: An Efficient Texture-Aware State Space Model for Image Restoration [75.51789992466183]
TAMAMbaIRは画像テクスチャの達成と性能と効率のトレードオフを同時に知覚する。
画像超解像, デラリニング, 低照度画像強調のためのベンチマーク実験により, TAMAMbaIRは高い効率で最先端の性能を達成できることを示した。
論文 参考訳(メタデータ) (2025-01-27T23:53:49Z) - ENTED: Enhanced Neural Texture Extraction and Distribution for
Reference-based Blind Face Restoration [51.205673783866146]
我々は,高品質でリアルな肖像画を復元することを目的とした,ブラインドフェイス修復のための新しいフレームワークであるENTEDを提案する。
劣化した入力画像と参照画像の間で高品質なテクスチャ特徴を伝達するために,テクスチャ抽出と分布の枠組みを利用する。
われわれのフレームワークにおけるStyleGANのようなアーキテクチャは、現実的な画像を生成するために高品質な潜伏符号を必要とする。
論文 参考訳(メタデータ) (2024-01-13T04:54:59Z) - TwinTex: Geometry-aware Texture Generation for Abstracted 3D
Architectural Models [13.248386665044087]
我々はTwinTexについて紹介する。TwinTexは写真にリアルなテクスチャを生成する最初の自動テクスチャマッピングフレームワークである。
提案手法は, 高品質なテクスチャマッピング手法を超越し, より少ない労力で, 熟練した生産水準に達する。
論文 参考訳(メタデータ) (2023-09-20T12:33:53Z) - Semantic Image Translation for Repairing the Texture Defects of Building
Models [16.764719266178655]
本稿では, ファサードテクスチャ画像の合成手法を提案する。
提案手法は,既存のテクスチャを欠いたファッケードに対して,テクスチャイメージを特定のスタイルで合成することも可能である。
論文 参考訳(メタデータ) (2023-03-30T14:38:53Z) - Controllable Person Image Synthesis with Spatially-Adaptive Warped
Normalization [72.65828901909708]
制御可能な人物画像生成は、望ましい属性を持つ現実的な人間の画像を作成することを目的としている。
本稿では,学習フロー場とワープ変調パラメータを統合した空間適応型ワープ正規化(SAWN)を提案する。
本稿では,テクスチャ・トランスファータスクの事前学習モデルを洗練するための,新たな自己学習部分置換戦略を提案する。
論文 参考訳(メタデータ) (2021-05-31T07:07:44Z) - Dynamic Object Removal and Spatio-Temporal RGB-D Inpainting via
Geometry-Aware Adversarial Learning [9.150245363036165]
動的物体はロボットの環境に対する認識に大きな影響を及ぼす。
本研究は,動的物体によって隠蔽された領域における可塑性色,テクスチャ,幾何学を合成することにより,この問題に対処する。
本研究は, 対人訓練を用いて建築を最適化し, オンラインで色と深度構造を幻覚できるような, 微妙な現実的なテクスチャを合成する。
論文 参考訳(メタデータ) (2020-08-12T01:23:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。