論文の概要: Deep Tiling: Texture Tile Synthesis Using a Deep Learning Approach
- arxiv url: http://arxiv.org/abs/2103.07992v1
- Date: Sun, 14 Mar 2021 18:17:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-16 13:53:51.195087
- Title: Deep Tiling: Texture Tile Synthesis Using a Deep Learning Approach
- Title(参考訳): Deep Tiling: ディープラーニングアプローチを用いたテクスチャタイル合成
- Authors: Vasilis Toulatzis, Ioannis Fudos
- Abstract要約: 多くの場合、テクスチャ画像は解像度が小さいため、大きな3dモデル表面を覆うことができない。
深層学習に基づくテクスチャ合成はそのような場合に非常に有効であることが証明されている。
堅牢な深層学習プロセスを用いて,実例に基づくテクスチャ合成の新たなアプローチを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Texturing is a fundamental process in computer graphics. Texture is leveraged
to enhance the visualization outcome for a 3D scene. In many cases a texture
image cannot cover a large 3D model surface because of its small resolution.
Conventional techniques like repeating, mirror repeating or clamp to edge do
not yield visually acceptable results. Deep learning based texture synthesis
has proven to be very effective in such cases. All deep texture synthesis
methods trying to create larger resolution textures are limited in terms of GPU
memory resources. In this paper, we propose a novel approach to example-based
texture synthesis by using a robust deep learning process for creating tiles of
arbitrary resolutions that resemble the structural components of an input
texture. In this manner, our method is firstly much less memory limited owing
to the fact that a new texture tile of small size is synthesized and merged
with the original texture and secondly can easily produce missing parts of a
large texture.
- Abstract(参考訳): テクスチャはコンピュータグラフィックスの基本的なプロセスである。
テクスチャを利用して、3Dシーンの可視化結果を強化する。
多くの場合、テクスチャ画像は解像度が小さいため、大きな3dモデル表面を覆うことができない。
リピート、ミラーリピート、またはエッジへのクランプなどの従来の技術は、視覚的に許容できる結果をもたらしません。
深層学習に基づくテクスチャ合成はそのような場合に非常に有効であることが証明されている。
より大きな解像度のテクスチャを作ろうとするディープテクスチャ合成手法はすべて、gpuメモリリソースの面で制限されている。
本稿では,入力テクスチャの構造的構成要素に類似した任意の解像度のタイルを作成するために,頑健な深層学習プロセスを用いたサンプルベーステクスチャ合成手法を提案する。
このようにして、小サイズの新しいテクスチャタイルを合成して元のテクスチャとマージし、第2に、大きなテクスチャの欠落部分を容易に生成できるという事実から、第一にメモリの少ない方法である。
関連論文リスト
- TEXGen: a Generative Diffusion Model for Mesh Textures [63.43159148394021]
我々は、UVテクスチャ空間自体における学習の根本的な問題に焦点を当てる。
本稿では,点クラウド上にアテンション層を持つUVマップ上の畳み込みをインターリーブするスケーラブルなネットワークアーキテクチャを提案する。
テキストプロンプトとシングルビュー画像によって導かれるUVテクスチャマップを生成する7億のパラメータ拡散モデルを訓練する。
論文 参考訳(メタデータ) (2024-11-22T05:22:11Z) - Infinite Texture: Text-guided High Resolution Diffusion Texture Synthesis [61.189479577198846]
Infinite Textureはテキストプロンプトから任意の大きさのテクスチャ画像を生成する方法である。
本手法は,1つのテクスチャ上に拡散モデルを微調整し,その分布をモデルの出力領域に埋め込むことを学習する。
1つのGPU上で任意の解像度の出力テクスチャ画像を生成するためのスコアアグリゲーションストラテジーによって、我々の微調整拡散モデルが生成される。
論文 参考訳(メタデータ) (2024-05-13T21:53:09Z) - TextureDreamer: Image-guided Texture Synthesis through Geometry-aware
Diffusion [64.49276500129092]
TextureDreamerは画像誘導型テクスチャ合成法である。
少数の入力画像から任意のカテゴリでターゲットの3D形状に光沢のあるテクスチャを転送することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:49Z) - Paint-it: Text-to-Texture Synthesis via Deep Convolutional Texture Map Optimization and Physically-Based Rendering [47.78392889256976]
Paint-itは3Dレンダリングのためのテキスト駆動の高忠実なテクスチャマップ合成法である。
Paint-itはScore-Distillation Sampling(SDS)を利用してテキスト記述からテクスチャマップを合成する
我々は,DC-PBRがテクスチャ周波数に応じて最適化カリキュラムをスケジュールし,SDSからノイズ信号を自然にフィルタすることを示した。
論文 参考訳(メタデータ) (2023-12-18T17:17:08Z) - TexFusion: Synthesizing 3D Textures with Text-Guided Image Diffusion
Models [77.85129451435704]
大規模誘導画像拡散モデルを用いて3次元テクスチャを合成する手法を提案する。
具体的には、潜時拡散モデルを利用し、セット・デノナイジング・モデルと集合・デノナイジング・テキスト・マップを適用する。
論文 参考訳(メタデータ) (2023-10-20T19:15:29Z) - TEXTure: Text-Guided Texturing of 3D Shapes [71.13116133846084]
TEXTureは,テクスチャのテクスチャのテクスチャの編集,編集,転送を行う新しい方法である。
表面テクスチャを明示することなくシームレスな3次元テクスチャを生成する3次元マップ分割プロセスを定義する。
論文 参考訳(メタデータ) (2023-02-03T13:18:45Z) - AUV-Net: Learning Aligned UV Maps for Texture Transfer and Synthesis [78.17671694498185]
AUV-Netは,3次元表面を2次元に整列したUV空間に埋め込むことを学習する。
結果として、テクスチャはオブジェクト間で整列し、画像の生成モデルによって容易に合成できる。
学習されたUVマッピングとアライメントテクスチャ表現は、テクスチャ転送、テクスチャ合成、テクスチャ化された単一ビュー3D再構成など、さまざまなアプリケーションを可能にする。
論文 参考訳(メタデータ) (2022-04-06T21:39:24Z) - On Demand Solid Texture Synthesis Using Deep 3D Networks [3.1542695050861544]
本稿では,ディープラーニングフレームワークに基づくオンデマンドテクスチャ合成のための新しいアプローチについて述べる。
任意の大きさの固形テクスチャのコヒーレント部分を合成するために、生成ネットワークを訓練する。
合成されたボリュームは、少なくとも最先端のパッチベースのアプローチと同等の視覚的結果が得られる。
論文 参考訳(メタデータ) (2020-01-13T20:59:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。