論文の概要: PBR-SR: Mesh PBR Texture Super Resolution from 2D Image Priors
- arxiv url: http://arxiv.org/abs/2506.02846v1
- Date: Tue, 03 Jun 2025 13:15:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:35.693204
- Title: PBR-SR: Mesh PBR Texture Super Resolution from 2D Image Priors
- Title(参考訳): PBR-SR:2次元画像からのメッシュPBRテクスチャ超解像
- Authors: Yujin Chen, Yinyu Nie, Benjamin Ummenhofer, Reiner Birkl, Michael Paulitsch, Matthias Nießner,
- Abstract要約: PBR-SRは物理ベースレンダリング(PBR)テクスチャスーパーレゾリューション(SR)の新しい手法である
ゼロショット方式で低解像度(LR)PBR入力から高解像度で高品質なPBRテクスチャを出力する。
- 参考スコア(独自算出の注目度): 52.28858915766172
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present PBR-SR, a novel method for physically based rendering (PBR) texture super resolution (SR). It outputs high-resolution, high-quality PBR textures from low-resolution (LR) PBR input in a zero-shot manner. PBR-SR leverages an off-the-shelf super-resolution model trained on natural images, and iteratively minimizes the deviations between super-resolution priors and differentiable renderings. These enhancements are then back-projected into the PBR map space in a differentiable manner to produce refined, high-resolution textures. To mitigate view inconsistencies and lighting sensitivity, which is common in view-based super-resolution, our method applies 2D prior constraints across multi-view renderings, iteratively refining the shared, upscaled textures. In parallel, we incorporate identity constraints directly in the PBR texture domain to ensure the upscaled textures remain faithful to the LR input. PBR-SR operates without any additional training or data requirements, relying entirely on pretrained image priors. We demonstrate that our approach produces high-fidelity PBR textures for both artist-designed and AI-generated meshes, outperforming both direct SR models application and prior texture optimization methods. Our results show high-quality outputs in both PBR and rendering evaluations, supporting advanced applications such as relighting.
- Abstract(参考訳): 物理ベースレンダリング(PBR)テクスチャ・スーパーレゾリューション(SR)の新しい手法であるPBR-SRを提案する。
ゼロショット方式で低解像度(LR)PBR入力から高解像度で高品質なPBRテクスチャを出力する。
PBR-SRは、自然画像に基づいて訓練された既製の超解像モデルを活用し、超解像先行と微分可能なレンダリングとのずれを反復的に最小化する。
これらの拡張は、洗練された高解像度のテクスチャを生成するために、異なる方法でPBRマップ空間にバックプロジェクションされる。
ビューベーススーパーレゾリューションでは一般的であるビューの不整合や照明感度を軽減するため,マルチビューレンダリングにおける2次元事前制約を適用して,共有された高階テクスチャを反復的に改善する。
並行して、PBRテクスチャ領域に直接アイデンティティ制約を組み込んで、LR入力に忠実なスケールアップされたテクスチャを確実に維持する。
PBR-SRは、事前訓練された画像に完全に依存して、追加のトレーニングやデータ要求なしで動作している。
本手法は,アーティスト設計とAI生成の両メッシュに対して高忠実なPBRテクスチャを生成し,直接SRモデルと事前テクスチャ最適化の両方よりも優れていることを示す。
この結果から,PBRとレンダリング評価の両面において高品質な出力が得られ,リライトなどの高度なアプリケーションを支援することができた。
関連論文リスト
- PacTure: Efficient PBR Texture Generation on Packed Views with Visual Autoregressive Models [73.4445896872942]
PacTureは、未ドメインの3Dメッシュから物理ベースのレンダリング(PBR)素材テクスチャを生成するためのフレームワークである。
ビューパッキング(View Packing)は、ビュー毎の有効解像度を高める新しいテクニックである。
論文 参考訳(メタデータ) (2025-05-28T14:23:30Z) - IntrinsiX: High-Quality PBR Generation using Image Priors [49.90007540430264]
IntrinsiXはテキスト記述から高品質な内在画像を生成する新しい手法である。
シーンライティングを内蔵した既存のテキスト・ツー・イメージモデルとは対照的に,本手法では物理ベースのレンダリング(PBR)マップを推定する。
論文 参考訳(メタデータ) (2025-04-01T17:47:48Z) - PBR3DGen: A VLM-guided Mesh Generation with High-quality PBR Texture [9.265778497001843]
高品質なPBR材料を用いた2段階メッシュ生成法であるPBR3DGenを提案する。
視覚言語モデル(VLM)を用いて多視点拡散を誘導し,反射金属材料の空間分布と特性を正確に把握する。
我々の復元モデルはPBR材料で高品質なメッシュを再構築する。
論文 参考訳(メタデータ) (2025-03-14T13:11:19Z) - Paint-it: Text-to-Texture Synthesis via Deep Convolutional Texture Map Optimization and Physically-Based Rendering [47.78392889256976]
Paint-itは3Dレンダリングのためのテキスト駆動の高忠実なテクスチャマップ合成法である。
Paint-itはScore-Distillation Sampling(SDS)を利用してテキスト記述からテクスチャマップを合成する
我々は,DC-PBRがテクスチャ周波数に応じて最適化カリキュラムをスケジュールし,SDSからノイズ信号を自然にフィルタすることを示した。
論文 参考訳(メタデータ) (2023-12-18T17:17:08Z) - Learning Texture Transformer Network for Image Super-Resolution [47.86443447491344]
画像超解像のためのテクスチュアトランスフォーマネットワーク(TTSR)を提案する。
TTSRは画像生成タスクに最適化された4つの近縁なモジュールで構成されている。
TTSRは、定量評価と定性評価の両方において最先端のアプローチよりも大幅に改善されている。
論文 参考訳(メタデータ) (2020-06-07T12:55:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。