論文の概要: TGHop: An Explainable, Efficient and Lightweight Method for Texture
Generation
- arxiv url: http://arxiv.org/abs/2107.04020v1
- Date: Thu, 8 Jul 2021 17:56:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-09 13:32:24.346066
- Title: TGHop: An Explainable, Efficient and Lightweight Method for Texture
Generation
- Title(参考訳): TGHop: テクスチャ生成のための説明可能な、効率的で軽量な方法
- Authors: Xuejing Lei, Ganning Zhao, Kaitai Zhang, C.-C. Jay Kuo
- Abstract要約: この研究でTGHop(Texture Generation PixelHopの頭字語)が提案されている。
TGHopはモデルサイズが小さく、数学的に透明であり、トレーニングや推論で効率的であり、高品質なテクスチャを生成することができる。
実験結果から,TGHopはモデルサイズが小さく,高速で高品質なテクスチャ画像を生成することができることがわかった。
- 参考スコア(独自算出の注目度): 28.185787626054704
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An explainable, efficient and lightweight method for texture generation,
called TGHop (an acronym of Texture Generation PixelHop), is proposed in this
work. Although synthesis of visually pleasant texture can be achieved by deep
neural networks, the associated models are large in size, difficult to explain
in theory, and computationally expensive in training. In contrast, TGHop is
small in its model size, mathematically transparent, efficient in training and
inference, and able to generate high quality texture. Given an exemplary
texture, TGHop first crops many sample patches out of it to form a collection
of sample patches called the source. Then, it analyzes pixel statistics of
samples from the source and obtains a sequence of fine-to-coarse subspaces for
these patches by using the PixelHop++ framework. To generate texture patches
with TGHop, we begin with the coarsest subspace, which is called the core, and
attempt to generate samples in each subspace by following the distribution of
real samples. Finally, texture patches are stitched to form texture images of a
large size. It is demonstrated by experimental results that TGHop can generate
texture images of superior quality with a small model size and at a fast speed.
- Abstract(参考訳): 本稿では,テクスチャ生成のための説明可能で効率的で軽量な手法であるtghop(テクスチャ生成ピクセルホップの頭字語)を提案する。
視覚的に心地よいテクスチャの合成はディープニューラルネットワークによって達成できるが、関連するモデルはサイズが大きく、理論上説明が困難であり、トレーニングで計算コストがかかる。
対照的に、TGHopはモデルサイズが小さく、数学的に透明であり、トレーニングや推論で効率的であり、高品質なテクスチャを生成することができる。
模範的なテクスチャを与えられたTGHopは、まず多くのサンプルパッチを抽出して、ソースと呼ばれるサンプルパッチの集合を形成する。
そして、ソースからサンプルのピクセル統計を分析し、pixelhop++フレームワークを使用して、これらのパッチの細かな部分空間のシーケンスを取得する。
tghopでテクスチャパッチを生成するには、コアと呼ばれる最も粗い部分空間から始め、実サンプルの分布に従って各部分空間でサンプルを生成しようとする。
最後に、テクスチャパッチを縫合して大きなテクスチャ画像を形成する。
実験結果から,TGHopはモデルサイズが小さく,高速で高品質なテクスチャ画像を生成することができることがわかった。
関連論文リスト
- FlashTex: Fast Relightable Mesh Texturing with LightControlNet [110.01093328160792]
本稿では,ユーザプロンプトテキストに基づく3Dメッシュの自動入力手法を提案する。
本研究は, 表面材料/反射率から光を引き離す方法に適用する。
私たちのパイプラインは、従来のテキストテクスチャメソッドよりもはるかに高速です。
論文 参考訳(メタデータ) (2024-02-20T18:59:00Z) - TextureDreamer: Image-guided Texture Synthesis through Geometry-aware
Diffusion [64.49276500129092]
TextureDreamerは画像誘導型テクスチャ合成法である。
少数の入力画像から任意のカテゴリでターゲットの3D形状に光沢のあるテクスチャを転送することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:49Z) - Paint-it: Text-to-Texture Synthesis via Deep Convolutional Texture Map
Optimization and Physically-Based Rendering [53.70434741500702]
Paint-itは3Dレンダリングのためのテキスト駆動の高忠実なテクスチャマップ合成法である。
Paint-itはScore-Distillation Sampling(SDS)を利用してテキスト記述からテクスチャマップを合成する
我々は,DC-PBRがテクスチャ周波数に応じて最適化カリキュラムをスケジュールし,SDSからノイズ信号を自然にフィルタすることを示した。
論文 参考訳(メタデータ) (2023-12-18T17:17:08Z) - SceneTex: High-Quality Texture Synthesis for Indoor Scenes via Diffusion
Priors [49.03627933561738]
SceneTexは、奥行き拡散前処理を用いた室内シーンの高品質でスタイルに一貫性のあるテクスチャを生成する新しい方法である。
SceneTexは3D-FRONTシーンの様々な正確なテクスチャ合成を可能にする。
論文 参考訳(メタデータ) (2023-11-28T22:49:57Z) - GeoScaler: Geometry and Rendering-Aware Downsampling of 3D Mesh Textures [0.07499722271664146]
高解像度テクスチャマップは、3Dメッシュで現実世界のオブジェクトを正確に表現するために必要である。
GeoScalerは幾何学的手がかりを取り入れつつ、3Dメッシュのテクスチャマップをダウンサンプリングする方法である。
また,GeoScalerが生成したテクスチャは,従来のダウンサンプリング手法に比べて,画質のよいレンダリング画像を提供することを示した。
論文 参考訳(メタデータ) (2023-11-28T07:55:25Z) - TexFusion: Synthesizing 3D Textures with Text-Guided Image Diffusion
Models [77.85129451435704]
大規模誘導画像拡散モデルを用いて3次元テクスチャを合成する手法を提案する。
具体的には、潜時拡散モデルを利用し、セット・デノナイジング・モデルと集合・デノナイジング・テキスト・マップを適用する。
論文 参考訳(メタデータ) (2023-10-20T19:15:29Z) - Generating Infinite-Size Textures using GANs with Patch-by-Patch
Paradigm [1.0878040851638]
GAN(Generative Adversarial Networks)を用いた無限サイズのテクスチャ画像生成手法を提案する。
提案手法は,単一のテクスチャ画像上にGANモデルをトレーニングし,局所的に相関し,より大きな画像を形成するためにシームレスに生成できる比較的小さなパッチを生成する。
トレーニングされたモデルは、局所的なテクスチャ構造を学び、任意のサイズの画像を生成すると同時に、一貫性と多様性を維持します。
論文 参考訳(メタデータ) (2023-09-05T15:57:23Z) - Lightweight texture transfer based on texture feature preset [1.1863107884314108]
テクスチャ特徴プリセットに基づく軽量なテクスチャ転送を提案する。
結果は視覚的に優れた結果を示すが、モデルのサイズを3.2~3538倍に減らし、プロセスを1.8~5.6倍に高速化する。
論文 参考訳(メタデータ) (2023-06-29T10:37:29Z) - AUV-Net: Learning Aligned UV Maps for Texture Transfer and Synthesis [78.17671694498185]
AUV-Netは,3次元表面を2次元に整列したUV空間に埋め込むことを学習する。
結果として、テクスチャはオブジェクト間で整列し、画像の生成モデルによって容易に合成できる。
学習されたUVマッピングとアライメントテクスチャ表現は、テクスチャ転送、テクスチャ合成、テクスチャ化された単一ビュー3D再構成など、さまざまなアプリケーションを可能にする。
論文 参考訳(メタデータ) (2022-04-06T21:39:24Z) - Deep Tiling: Texture Tile Synthesis Using a Deep Learning Approach [0.0]
多くの場合、テクスチャ画像は解像度が小さいため、大きな3dモデル表面を覆うことができない。
深層学習に基づくテクスチャ合成はそのような場合に非常に有効であることが証明されている。
堅牢な深層学習プロセスを用いて,実例に基づくテクスチャ合成の新たなアプローチを提案する。
論文 参考訳(メタデータ) (2021-03-14T18:17:37Z) - On Demand Solid Texture Synthesis Using Deep 3D Networks [3.1542695050861544]
本稿では,ディープラーニングフレームワークに基づくオンデマンドテクスチャ合成のための新しいアプローチについて述べる。
任意の大きさの固形テクスチャのコヒーレント部分を合成するために、生成ネットワークを訓練する。
合成されたボリュームは、少なくとも最先端のパッチベースのアプローチと同等の視覚的結果が得られる。
論文 参考訳(メタデータ) (2020-01-13T20:59:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。