論文の概要: GPU-Friendly Laplacian Texture Blending
- arxiv url: http://arxiv.org/abs/2502.13945v1
- Date: Wed, 19 Feb 2025 18:40:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-20 13:59:05.765845
- Title: GPU-Friendly Laplacian Texture Blending
- Title(参考訳): GPUフレンドリーなラプラシアンテクスチャブレンディング
- Authors: Bartlomiej Wronski,
- Abstract要約: 画像処理とラプラシアンピラミッドブレンディングの知見に基づく代替手法を提案する。
私たちのアプローチでは、プリ計算やメモリ使用量の増加は必要ありません。
シャープなローカル機能を保持し、いくつかのミップマップテクスチャタップを犠牲にして、GPU上でリアルタイムに実行できる。
- 参考スコア(独自算出の注目度): 1.1240642213359266
- License:
- Abstract: Texture and material blending is one of the leading methods for adding variety to rendered virtual worlds, creating composite materials, and generating procedural content. When done naively, it can introduce either visible seams or contrast loss, leading to an unnatural look not representative of blended textures. Earlier work proposed addressing this problem through careful manual parameter tuning, lengthy per-texture statistics precomputation, look-up tables, or training deep neural networks. In this work, we propose an alternative approach based on insights from image processing and Laplacian pyramid blending. Our approach does not require any precomputation or increased memory usage (other than the presence of a regular, non-Laplacian, texture mipmap chain), does not produce ghosting, preserves sharp local features, and can run in real time on the GPU at the cost of a few additional lower mipmap texture taps.
- Abstract(参考訳): テクスチャーと材料ブレンディングは、レンダリングされた仮想世界に多様なものを追加し、複合材料を作成し、手続き的コンテンツを生成する主要な方法の1つである。
鼻で行うと、目に見える縫い目またはコントラストの損失を生じさせ、混ざったテクスチャを表わさない不自然な外観に繋がる。
以前の研究では、手動のパラメータチューニング、コンテキストごとの長い統計計算、ルックアップテーブル、ディープニューラルネットワークのトレーニングを通じてこの問題に対処することを提案した。
本研究では,画像処理とラプラシアピラミッドブレンディングの知見に基づく代替手法を提案する。
我々のアプローチでは、プリ計算やメモリ使用量の増加は必要とせず(通常の非ラプラシアンなテクスチャミップマップチェーンを除いて)、ゴーストを発生せず、鋭いローカル機能を保持し、いくつかのミップマップテクスチャタップを犠牲にしてGPU上でリアルタイムに実行できる。
関連論文リスト
- TexGen: Text-Guided 3D Texture Generation with Multi-view Sampling and Resampling [37.67373829836975]
テクスチャ生成のための新しい多視点サンプリングおよび再サンプリングフレームワークであるTexGenを提案する。
提案手法は,高精細度3次元オブジェクトに対して,高精細度で優れたテクスチャ品質を実現する。
また,テクスチャ生成技術は,テクスチャ編集にも適用可能である。
論文 参考訳(メタデータ) (2024-08-02T14:24:40Z) - Infinite Texture: Text-guided High Resolution Diffusion Texture Synthesis [61.189479577198846]
Infinite Textureはテキストプロンプトから任意の大きさのテクスチャ画像を生成する方法である。
本手法は,1つのテクスチャ上に拡散モデルを微調整し,その分布をモデルの出力領域に埋め込むことを学習する。
1つのGPU上で任意の解像度の出力テクスチャ画像を生成するためのスコアアグリゲーションストラテジーによって、我々の微調整拡散モデルが生成される。
論文 参考訳(メタデータ) (2024-05-13T21:53:09Z) - GenesisTex: Adapting Image Denoising Diffusion to Texture Space [15.907134430301133]
GenesisTexはテキスト記述から3次元幾何学のテクスチャを合成する新しい手法である。
我々は,各視点に対して潜在テクスチャマップを保持し,対応する視点の描画に予測ノイズを伴って更新する。
大域的整合性は、ノイズ予測ネットワーク内のスタイル整合性機構の統合によって達成される。
論文 参考訳(メタデータ) (2024-03-26T15:15:15Z) - FlashTex: Fast Relightable Mesh Texturing with LightControlNet [105.4683880648901]
ControlNetアーキテクチャに基づいた新しいテキスト・ツー・イメージモデルであるLightControlNetを紹介した。
本手法は, メッシュを任意の照明環境下で適切に切断し, レンダリングできるように, 結果として生じるテクスチャの材質/反射率を下げるためのものである。
論文 参考訳(メタデータ) (2024-02-20T18:59:00Z) - Paint-it: Text-to-Texture Synthesis via Deep Convolutional Texture Map Optimization and Physically-Based Rendering [47.78392889256976]
Paint-itは3Dレンダリングのためのテキスト駆動の高忠実なテクスチャマップ合成法である。
Paint-itはScore-Distillation Sampling(SDS)を利用してテキスト記述からテクスチャマップを合成する
我々は,DC-PBRがテクスチャ周波数に応じて最適化カリキュラムをスケジュールし,SDSからノイズ信号を自然にフィルタすることを示した。
論文 参考訳(メタデータ) (2023-12-18T17:17:08Z) - SceneTex: High-Quality Texture Synthesis for Indoor Scenes via Diffusion
Priors [49.03627933561738]
SceneTexは、奥行き拡散前処理を用いた室内シーンの高品質でスタイルに一貫性のあるテクスチャを生成する新しい方法である。
SceneTexは3D-FRONTシーンの様々な正確なテクスチャ合成を可能にする。
論文 参考訳(メタデータ) (2023-11-28T22:49:57Z) - TMO: Textured Mesh Acquisition of Objects with a Mobile Device by using
Differentiable Rendering [54.35405028643051]
スマートフォン1台でテクスチャ化されたメッシュを野生で取得するパイプラインを新たに提案する。
提案手法ではまず,RGBD支援構造を動きから導入し,フィルタした深度マップを作成できる。
我々は,高品質なメッシュを実現するニューラル暗黙表面再構成法を採用する。
論文 参考訳(メタデータ) (2023-03-27T10:07:52Z) - Deep Tiling: Texture Tile Synthesis Using a Deep Learning Approach [0.0]
多くの場合、テクスチャ画像は解像度が小さいため、大きな3dモデル表面を覆うことができない。
深層学習に基づくテクスチャ合成はそのような場合に非常に有効であることが証明されている。
堅牢な深層学習プロセスを用いて,実例に基づくテクスチャ合成の新たなアプローチを提案する。
論文 参考訳(メタデータ) (2021-03-14T18:17:37Z) - On Demand Solid Texture Synthesis Using Deep 3D Networks [3.1542695050861544]
本稿では,ディープラーニングフレームワークに基づくオンデマンドテクスチャ合成のための新しいアプローチについて述べる。
任意の大きさの固形テクスチャのコヒーレント部分を合成するために、生成ネットワークを訓練する。
合成されたボリュームは、少なくとも最先端のパッチベースのアプローチと同等の視覚的結果が得られる。
論文 参考訳(メタデータ) (2020-01-13T20:59:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。