論文の概要: Lightweight texture transfer based on texture feature preset
- arxiv url: http://arxiv.org/abs/2306.16846v3
- Date: Mon, 1 Jan 2024 06:25:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-03 02:09:17.807256
- Title: Lightweight texture transfer based on texture feature preset
- Title(参考訳): テクスチャ特徴の事前設定に基づく軽量テクスチャ転送
- Authors: ShiQi Jiang
- Abstract要約: テクスチャ特徴プリセットに基づく軽量なテクスチャ転送を提案する。
結果は視覚的に優れた結果を示すが、モデルのサイズを3.2~3538倍に減らし、プロセスを1.8~5.6倍に高速化する。
- 参考スコア(独自算出の注目度): 1.1863107884314108
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In the task of texture transfer, reference texture images typically exhibit
highly repetitive texture features, and the texture transfer results from
different content images under the same style also share remarkably similar
texture patterns. Encoding such highly similar texture features often requires
deep layers and a large number of channels, making it is also the main source
of the entire model's parameter count and computational load, and inference
time. We propose a lightweight texture transfer based on texture feature preset
(TFP). TFP takes full advantage of the high repetitiveness of texture features
by providing preset universal texture feature maps for a given style. These
preset feature maps can be fused and decoded directly with shallow color
transfer feature maps of any content to generate texture transfer results,
thereby avoiding redundant texture information from being encoded repeatedly.
The texture feature map we preset is encoded through noise input images with
consistent distribution (standard normal distribution). This consistent input
distribution can completely avoid the problem of texture transfer
differentiation, and by randomly sampling different noise inputs, we can obtain
different texture features and texture transfer results under the same
reference style. Compared to state-of-the-art techniques, our TFP not only
produces visually superior results but also reduces the model size by 3.2-3538
times and speeds up the process by 1.8-5.6 times.
- Abstract(参考訳): テクスチャ転送のタスクでは、参照テクスチャ画像は、非常に反復的なテクスチャ特徴を示し、同じスタイルで異なるコンテンツ画像からのテクスチャ転送結果も、非常に類似したテクスチャパターンを示す。
このような高度に類似したテクスチャ特徴をエンコーディングするには、しばしば深い層と多くのチャネルを必要とするため、モデル全体のパラメータ数と計算負荷、推論時間の主な原因でもある。
本稿では,テクスチャ特徴プリセット(tfp)に基づく軽量なテクスチャ転送を提案する。
TFPは、所定のスタイルに対して予め設定された普遍的なテクスチャ特徴写像を提供することにより、テクスチャ特徴の反復性を最大限に活用する。
これらのプリセットフィーチャマップは、任意のコンテンツの浅いカラー転送フィーチャマップと直接融合して、テクスチャ転送結果を生成することができ、冗長なテクスチャ情報が繰り返しエンコードされるのを避けることができる。
予め設定したテクスチャ特徴写像は、一貫した分布(標準正規分布)を持つノイズ入力画像を通して符号化される。
この一貫した入力分布は、テクスチャ伝達分化の問題を完全に回避することができ、異なるノイズ入力をランダムにサンプリングすることで、同じ参照スタイルで異なるテクスチャ特徴とテクスチャ伝達結果を得ることができる。
最新技術と比較して、TFPは視覚的に優れた結果をもたらすだけでなく、モデルサイズを3.2~3538倍に減らし、プロセスを1.8~5.6倍高速化する。
関連論文リスト
- TextureDreamer: Image-guided Texture Synthesis through Geometry-aware
Diffusion [64.49276500129092]
TextureDreamerは画像誘導型テクスチャ合成法である。
少数の入力画像から任意のカテゴリでターゲットの3D形状に光沢のあるテクスチャを転送することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:49Z) - Paint-it: Text-to-Texture Synthesis via Deep Convolutional Texture Map
Optimization and Physically-Based Rendering [53.70434741500702]
Paint-itは3Dレンダリングのためのテキスト駆動の高忠実なテクスチャマップ合成法である。
Paint-itはScore-Distillation Sampling(SDS)を利用してテキスト記述からテクスチャマップを合成する
我々は,DC-PBRがテクスチャ周波数に応じて最適化カリキュラムをスケジュールし,SDSからノイズ信号を自然にフィルタすることを示した。
論文 参考訳(メタデータ) (2023-12-18T17:17:08Z) - TexFusion: Synthesizing 3D Textures with Text-Guided Image Diffusion
Models [77.85129451435704]
大規模誘導画像拡散モデルを用いて3次元テクスチャを合成する手法を提案する。
具体的には、潜時拡散モデルを利用し、セット・デノナイジング・モデルと集合・デノナイジング・テキスト・マップを適用する。
論文 参考訳(メタデータ) (2023-10-20T19:15:29Z) - Color and Texture Dual Pipeline Lightweight Style Transfer [1.1863107884314108]
スタイル伝達法は通常、参照スタイルのための色とテクスチャの結合の単一のスタイル化された出力を生成する。
色とテクスチャの転送結果の同時出力に2重パイプライン方式を用いるカラー・テクスチャ二重パイプライン方式のライトウェイト転送CTDP法を提案する。
比較実験では、CTDPが生成した色とテクスチャの伝達結果はどちらも最先端の性能を達成している。
論文 参考訳(メタデータ) (2023-10-02T16:29:49Z) - TEXTure: Text-Guided Texturing of 3D Shapes [71.13116133846084]
TEXTureは,テクスチャのテクスチャのテクスチャの編集,編集,転送を行う新しい方法である。
表面テクスチャを明示することなくシームレスな3次元テクスチャを生成する3次元マップ分割プロセスを定義する。
論文 参考訳(メタデータ) (2023-02-03T13:18:45Z) - AUV-Net: Learning Aligned UV Maps for Texture Transfer and Synthesis [78.17671694498185]
AUV-Netは,3次元表面を2次元に整列したUV空間に埋め込むことを学習する。
結果として、テクスチャはオブジェクト間で整列し、画像の生成モデルによって容易に合成できる。
学習されたUVマッピングとアライメントテクスチャ表現は、テクスチャ転送、テクスチャ合成、テクスチャ化された単一ビュー3D再構成など、さまざまなアプリケーションを可能にする。
論文 参考訳(メタデータ) (2022-04-06T21:39:24Z) - Transposer: Universal Texture Synthesis Using Feature Maps as Transposed
Convolution Filter [43.9258342767253]
テクスチャ合成に変換畳み込み演算を用いる新しい手法を提案する。
筆者らのフレームワークは,様々な指標に基づいて,最先端のテクスチャ合成品質を実現する。
論文 参考訳(メタデータ) (2020-07-14T17:57:59Z) - Region-adaptive Texture Enhancement for Detailed Person Image Synthesis [86.69934638569815]
RATE-Netは、シャープなテクスチャで人物画像を合成するための新しいフレームワークである。
提案するフレームワークは,テクスチャ強化モジュールを利用して,画像から外観情報を抽出する。
DeepFashionベンチマークデータセットで実施された実験は、既存のネットワークと比較して、我々のフレームワークの優位性を実証した。
論文 参考訳(メタデータ) (2020-05-26T02:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。