論文の概要: DiffTex: Differentiable Texturing for Architectural Proxy Models
- arxiv url: http://arxiv.org/abs/2509.23336v2
- Date: Tue, 30 Sep 2025 10:15:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 12:20:10.39494
- Title: DiffTex: Differentiable Texturing for Architectural Proxy Models
- Title(参考訳): DiffTex: アーキテクチャプロキシモデルのための微分可能なテクスチャ
- Authors: Weidan Xiong, Yongli Wu, Bochuan Zeng, Jianwei Guo, Dani Lischinski, Daniel Cohen-Or, Hui Huang,
- Abstract要約: 非秩序な写真からテクセルレベルでアーキテクチャプロキシモデルのための現実的なテクスチャマップを自動生成する手法を提案する。
提案手法は,UVマップ上のテックセルと入力画像中のピクセルとの対応性を確立し,各テクセルの色を関連するピクセル値の重み付けとして計算する。
- 参考スコア(独自算出の注目度): 63.370581207280004
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Simplified proxy models are commonly used to represent architectural structures, reducing storage requirements and enabling real-time rendering. However, the geometric simplifications inherent in proxies result in a loss of fine color and geometric details, making it essential for textures to compensate for the loss. Preserving the rich texture information from the original dense architectural reconstructions remains a daunting task, particularly when working with unordered RGB photographs. We propose an automated method for generating realistic texture maps for architectural proxy models at the texel level from an unordered collection of registered photographs. Our approach establishes correspondences between texels on a UV map and pixels in the input images, with each texel's color computed as a weighted blend of associated pixel values. Using differentiable rendering, we optimize blending parameters to ensure photometric and perspective consistency, while maintaining seamless texture coherence. Experimental results demonstrate the effectiveness and robustness of our method across diverse architectural models and varying photographic conditions, enabling the creation of high-quality textures that preserve visual fidelity and structural detail.
- Abstract(参考訳): シンプルなプロキシモデルは、一般的にアーキテクチャ構造を表現するために使われ、ストレージ要件を減らし、リアルタイムレンダリングを可能にする。
しかし、プロキシに固有の幾何学的単純化は、細かな色と幾何学的詳細の損失をもたらすため、テクスチャが損失を補うことが不可欠である。
もともとの密集した建築再建から豊富なテクスチャ情報を保存することは、特に秩序のないRGB写真を扱う場合、大変な作業である。
本稿では,未注文の写真コレクションからテクセルレベルでのアーキテクチャプロキシモデルのための現実的なテクスチャマップの自動生成手法を提案する。
提案手法は,UVマップ上のテックセルと入力画像中のピクセルとの対応性を確立し,各テクセルの色を関連するピクセル値の重み付けとして計算する。
微分可能なレンダリングを用いて、シームレスなテクスチャコヒーレンスを維持しながら、光度と視点の整合性を確保するために、ブレンディングパラメータを最適化する。
実験により,多種多様な建築モデルと様々な写真条件にまたがる手法の有効性と堅牢性を示し,視覚的忠実さと構造的詳細さを保った高品質なテクスチャの創出を可能にした。
関連論文リスト
- ProxyImg: Towards Highly-Controllable Image Representation via Hierarchical Disentangled Proxy Embedding [44.20713526887855]
本稿では,意味的,幾何学的,テクスチュラルな属性を独立したパラメータ空間に分割する階層的プロキシベースパラメトリック画像表現を提案する。
本手法は,直感的,対話的,物理的に妥当な操作が可能でありながら,パラメータが大幅に少ない最先端のレンダリング忠実度を実現する。
論文 参考訳(メタデータ) (2026-02-02T09:53:45Z) - Texture-aware Intrinsic Image Decomposition with Model- and Learning-based Priors [10.34258784689083]
そこで本研究では,本質的な画像分解において,厳しい照明と豊かなテクスチャを扱うための新しい手法を提案する。
従来のテクスチャ認識と組み合わせることで,既存のアプローチよりも優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2025-09-11T11:07:25Z) - Directing Mamba to Complex Textures: An Efficient Texture-Aware State Space Model for Image Restoration [75.51789992466183]
TAMAMbaIRは画像テクスチャの達成と性能と効率のトレードオフを同時に知覚する。
画像超解像, デラリニング, 低照度画像強調のためのベンチマーク実験により, TAMAMbaIRは高い効率で最先端の性能を達成できることを示した。
論文 参考訳(メタデータ) (2025-01-27T23:53:49Z) - ENTED: Enhanced Neural Texture Extraction and Distribution for
Reference-based Blind Face Restoration [51.205673783866146]
我々は,高品質でリアルな肖像画を復元することを目的とした,ブラインドフェイス修復のための新しいフレームワークであるENTEDを提案する。
劣化した入力画像と参照画像の間で高品質なテクスチャ特徴を伝達するために,テクスチャ抽出と分布の枠組みを利用する。
われわれのフレームワークにおけるStyleGANのようなアーキテクチャは、現実的な画像を生成するために高品質な潜伏符号を必要とする。
論文 参考訳(メタデータ) (2024-01-13T04:54:59Z) - TwinTex: Geometry-aware Texture Generation for Abstracted 3D
Architectural Models [13.248386665044087]
我々はTwinTexについて紹介する。TwinTexは写真にリアルなテクスチャを生成する最初の自動テクスチャマッピングフレームワークである。
提案手法は, 高品質なテクスチャマッピング手法を超越し, より少ない労力で, 熟練した生産水準に達する。
論文 参考訳(メタデータ) (2023-09-20T12:33:53Z) - Semantic Image Translation for Repairing the Texture Defects of Building
Models [16.764719266178655]
本稿では, ファサードテクスチャ画像の合成手法を提案する。
提案手法は,既存のテクスチャを欠いたファッケードに対して,テクスチャイメージを特定のスタイルで合成することも可能である。
論文 参考訳(メタデータ) (2023-03-30T14:38:53Z) - DIB-R++: Learning to Predict Lighting and Material with a Hybrid
Differentiable Renderer [78.91753256634453]
そこで本研究では,単体画像から固有物体特性を推定する難題について,微分可能量を用いて検討する。
そこで本研究では、スペクトル化とレイトレーシングを組み合わせることで、これらの効果をサポートするハイブリッド微分可能なDIBR++を提案する。
より高度な物理ベースの微分可能値と比較すると、DIBR++はコンパクトで表現力のあるモデルであるため、高い性能を持つ。
論文 参考訳(メタデータ) (2021-10-30T01:59:39Z) - Controllable Person Image Synthesis with Spatially-Adaptive Warped
Normalization [72.65828901909708]
制御可能な人物画像生成は、望ましい属性を持つ現実的な人間の画像を作成することを目的としている。
本稿では,学習フロー場とワープ変調パラメータを統合した空間適応型ワープ正規化(SAWN)を提案する。
本稿では,テクスチャ・トランスファータスクの事前学習モデルを洗練するための,新たな自己学習部分置換戦略を提案する。
論文 参考訳(メタデータ) (2021-05-31T07:07:44Z) - Dynamic Object Removal and Spatio-Temporal RGB-D Inpainting via
Geometry-Aware Adversarial Learning [9.150245363036165]
動的物体はロボットの環境に対する認識に大きな影響を及ぼす。
本研究は,動的物体によって隠蔽された領域における可塑性色,テクスチャ,幾何学を合成することにより,この問題に対処する。
本研究は, 対人訓練を用いて建築を最適化し, オンラインで色と深度構造を幻覚できるような, 微妙な現実的なテクスチャを合成する。
論文 参考訳(メタデータ) (2020-08-12T01:23:21Z) - Intrinsic Autoencoders for Joint Neural Rendering and Intrinsic Image
Decomposition [67.9464567157846]
合成3Dモデルからリアルな画像を生成するためのオートエンコーダを提案し,同時に実像を本質的な形状と外観特性に分解する。
実験により, レンダリングと分解の併用処理が有益であることが確認され, 画像から画像への翻訳の質的, 定量的なベースラインよりも優れた結果が得られた。
論文 参考訳(メタデータ) (2020-06-29T12:53:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。