論文の概要: Degree-Controllable Lightweight Fast Style Transfer with Detail
Attention-enhanced
- arxiv url: http://arxiv.org/abs/2306.16846v2
- Date: Wed, 13 Sep 2023 11:11:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-14 17:39:54.473107
- Title: Degree-Controllable Lightweight Fast Style Transfer with Detail
Attention-enhanced
- Title(参考訳): ディテールエンハンス付き度制御可能な軽量高速転送方式
- Authors: Jiang Shi Qi
- Abstract要約: スタイル転送法は通常、訓練済みのVGGまたはより複雑なモデルをエンコーダとして使用し、より良い効果を得る。
DcDaeLFST(DcDaeLFST)を提案する。
我々のモデルは17-250倍小さく、他の最先端モデルより0.26-6.5倍速い。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Style transfer methods usually use pre-trained VGG or more complex models as
encoders to achieve better effects. This leads to extremely slow processing of
high-resolution images. To solve the problem, we propose an degree-controllable
detail attention-enhanced lightweight fast style transfer (DcDaeLFST), which
adopts a small, shallow, and compact architecture for efficient forward
inference. Additionally, our exploit a global semantic invariance loss to
preserve the semantic and structural information of content images, and a local
detail attention-enhanced module to preserve the detail information of them,
together with a style discriminator. Despite limited parameters, it can achieve
overall better style matching performance. Most importantly, it is the first
method that can control the degree of detail retention and style transfer based
on subjective evaluation. In comparative experiments, our model is 17-250 times
smaller and 0.26-6.5 times faster than other state-of-the-art models, with the
fastest processing speed of 0.38s on 4K high-resolution images.
- Abstract(参考訳): スタイル転送法は通常、訓練済みのVGGまたはより複雑なモデルをエンコーダとして使用し、より良い効果を得る。
これにより高解像度画像の処理が極めて遅くなる。
そこで本研究では, 小型で浅く, コンパクトなアーキテクチャを採用し, 効率的な前方推定を実現する, ディテールを制御できる軽量高速転送方式 (dcdaelfst) を提案する。
さらに,コンテンツ画像の意味的,構造的情報を保存するためにグローバル意味的不分散損失と,それらの詳細情報を保存するための局所的細部注意強化モジュールを,スタイル判別器と共に活用する。
パラメータが限られているにもかかわらず、全体的なスタイルマッチングのパフォーマンスが向上する。
最も重要なのは、主観評価に基づいて、細部保持とスタイル転送の程度を制御できる最初の方法である。
比較実験では,このモデルは17~250倍小さく,0.26~6.5倍高速で,高速処理速度は4k高精細画像上で0.38秒であった。
関連論文リスト
- TextureDreamer: Image-guided Texture Synthesis through Geometry-aware
Diffusion [64.49276500129092]
TextureDreamerは画像誘導型テクスチャ合成法である。
少数の入力画像から任意のカテゴリでターゲットの3D形状に光沢のあるテクスチャを転送することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:49Z) - Paint-it: Text-to-Texture Synthesis via Deep Convolutional Texture Map Optimization and Physically-Based Rendering [47.78392889256976]
Paint-itは3Dレンダリングのためのテキスト駆動の高忠実なテクスチャマップ合成法である。
Paint-itはScore-Distillation Sampling(SDS)を利用してテキスト記述からテクスチャマップを合成する
我々は,DC-PBRがテクスチャ周波数に応じて最適化カリキュラムをスケジュールし,SDSからノイズ信号を自然にフィルタすることを示した。
論文 参考訳(メタデータ) (2023-12-18T17:17:08Z) - TexFusion: Synthesizing 3D Textures with Text-Guided Image Diffusion
Models [77.85129451435704]
大規模誘導画像拡散モデルを用いて3次元テクスチャを合成する手法を提案する。
具体的には、潜時拡散モデルを利用し、セット・デノナイジング・モデルと集合・デノナイジング・テキスト・マップを適用する。
論文 参考訳(メタデータ) (2023-10-20T19:15:29Z) - Color and Texture Dual Pipeline Lightweight Style Transfer [1.1863107884314108]
スタイル伝達法は通常、参照スタイルのための色とテクスチャの結合の単一のスタイル化された出力を生成する。
色とテクスチャの転送結果の同時出力に2重パイプライン方式を用いるカラー・テクスチャ二重パイプライン方式のライトウェイト転送CTDP法を提案する。
比較実験では、CTDPが生成した色とテクスチャの伝達結果はどちらも最先端の性能を達成している。
論文 参考訳(メタデータ) (2023-10-02T16:29:49Z) - TEXTure: Text-Guided Texturing of 3D Shapes [71.13116133846084]
TEXTureは,テクスチャのテクスチャのテクスチャの編集,編集,転送を行う新しい方法である。
表面テクスチャを明示することなくシームレスな3次元テクスチャを生成する3次元マップ分割プロセスを定義する。
論文 参考訳(メタデータ) (2023-02-03T13:18:45Z) - AUV-Net: Learning Aligned UV Maps for Texture Transfer and Synthesis [78.17671694498185]
AUV-Netは,3次元表面を2次元に整列したUV空間に埋め込むことを学習する。
結果として、テクスチャはオブジェクト間で整列し、画像の生成モデルによって容易に合成できる。
学習されたUVマッピングとアライメントテクスチャ表現は、テクスチャ転送、テクスチャ合成、テクスチャ化された単一ビュー3D再構成など、さまざまなアプリケーションを可能にする。
論文 参考訳(メタデータ) (2022-04-06T21:39:24Z) - Transposer: Universal Texture Synthesis Using Feature Maps as Transposed
Convolution Filter [43.9258342767253]
テクスチャ合成に変換畳み込み演算を用いる新しい手法を提案する。
筆者らのフレームワークは,様々な指標に基づいて,最先端のテクスチャ合成品質を実現する。
論文 参考訳(メタデータ) (2020-07-14T17:57:59Z) - Region-adaptive Texture Enhancement for Detailed Person Image Synthesis [86.69934638569815]
RATE-Netは、シャープなテクスチャで人物画像を合成するための新しいフレームワークである。
提案するフレームワークは,テクスチャ強化モジュールを利用して,画像から外観情報を抽出する。
DeepFashionベンチマークデータセットで実施された実験は、既存のネットワークと比較して、我々のフレームワークの優位性を実証した。
論文 参考訳(メタデータ) (2020-05-26T02:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。