論文の概要: Color and Texture Dual Pipeline Lightweight Style Transfer
- arxiv url: http://arxiv.org/abs/2310.01321v1
- Date: Mon, 2 Oct 2023 16:29:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 21:01:33.612843
- Title: Color and Texture Dual Pipeline Lightweight Style Transfer
- Title(参考訳): カラーとテクスチャ デュアルパイプライン 軽量スタイル転送
- Authors: ShiQi Jiang
- Abstract要約: スタイル伝達法は通常、参照スタイルのための色とテクスチャの結合の単一のスタイル化された出力を生成する。
色とテクスチャの転送結果の同時出力に2重パイプライン方式を用いるカラー・テクスチャ二重パイプライン方式のライトウェイト転送CTDP法を提案する。
比較実験では、CTDPが生成した色とテクスチャの伝達結果はどちらも最先端の性能を達成している。
- 参考スコア(独自算出の注目度): 1.1863107884314108
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Style transfer methods typically generate a single stylized output of color
and texture coupling for reference styles, and color transfer schemes may
introduce distortion or artifacts when processing reference images with
duplicate textures. To solve the problem, we propose a Color and Texture Dual
Pipeline Lightweight Style Transfer CTDP method, which employs a dual pipeline
method to simultaneously output the results of color and texture transfer.
Furthermore, we designed a masked total variation loss to suppress artifacts
and small texture representations in color transfer results without affecting
the semantic part of the content. More importantly, we are able to add texture
structures with controllable intensity to color transfer results for the first
time. Finally, we conducted feature visualization analysis on the texture
generation mechanism of the framework and found that smoothing the input image
can almost completely eliminate this texture structure. In comparative
experiments, the color and texture transfer results generated by CTDP both
achieve state-of-the-art performance. Additionally, the weight of the color
transfer branch model size is as low as 20k, which is 100-1500 times smaller
than that of other state-of-the-art models.
- Abstract(参考訳): スタイル転送方式は、通常、参照スタイルの色とテクスチャの結合の単一のスタイライズされた出力を生成し、色転送方式は、複数のテクスチャで参照画像を処理する際に歪みやアーティファクトをもたらす。
そこで本研究では,カラーとテクスチャの変換結果を同時に出力するデュアルパイプライン方式を用いた,カラーとテクスチャの2重パイプライン軽量スタイルトランスファーctdp法を提案する。
さらに,コンテンツの意味的部分に影響を及ぼすことなく,色伝達結果のアーティファクトやテクスチャ表現を抑えるために,マスク付き全変動損失を設計した。
さらに重要なことは、カラー転送結果に制御可能な強度を持つテクスチャ構造を初めて追加できるということです。
最後に,フレームワークのテクスチャ生成機構に関する特徴可視化解析を行い,入力画像の平滑化により,このテクスチャ構造をほぼ完全に排除できることを確認した。
比較実験では、CTDPが生成した色とテクスチャの伝達結果はどちらも最先端の性能を達成する。
さらに、カラー転送分岐モデルの重量は20k以下であり、これは他の最先端モデルの重量の100-1500倍である。
関連論文リスト
- FabricDiffusion: High-Fidelity Texture Transfer for 3D Garments Generation from In-The-Wild Clothing Images [56.63824638417697]
ファブリックディフュージョン(FabricDiffusion)は、織物のテクスチャを1枚の衣服画像から任意の形状の3D衣服に転送する方法である。
FabricDiffusionは、テクスチャパターン、材料特性、詳細な印刷物やロゴを含む、単一の衣料品画像から様々な特徴を伝達できることを示す。
論文 参考訳(メタデータ) (2024-10-02T17:57:12Z) - Infinite Texture: Text-guided High Resolution Diffusion Texture Synthesis [61.189479577198846]
Infinite Textureはテキストプロンプトから任意の大きさのテクスチャ画像を生成する方法である。
本手法は,1つのテクスチャ上に拡散モデルを微調整し,その分布をモデルの出力領域に埋め込むことを学習する。
1つのGPU上で任意の解像度の出力テクスチャ画像を生成するためのスコアアグリゲーションストラテジーによって、我々の微調整拡散モデルが生成される。
論文 参考訳(メタデータ) (2024-05-13T21:53:09Z) - TextureDreamer: Image-guided Texture Synthesis through Geometry-aware
Diffusion [64.49276500129092]
TextureDreamerは画像誘導型テクスチャ合成法である。
少数の入力画像から任意のカテゴリでターゲットの3D形状に光沢のあるテクスチャを転送することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:49Z) - ConTex-Human: Free-View Rendering of Human from a Single Image with
Texture-Consistent Synthesis [49.28239918969784]
テクスチャに一貫性のあるバックビュー合成モジュールを導入し、参照画像コンテンツをバックビューに転送する。
また、テクスチャマッピングとリファインメントのための可視性対応パッチ整合性正規化と、合成したバックビューテクスチャの組み合わせを提案する。
論文 参考訳(メタデータ) (2023-11-28T13:55:53Z) - Lightweight texture transfer based on texture feature preset [1.1863107884314108]
テクスチャ特徴プリセットに基づく軽量なテクスチャ転送を提案する。
結果は視覚的に優れた結果を示すが、モデルのサイズを3.2~3538倍に減らし、プロセスを1.8~5.6倍に高速化する。
論文 参考訳(メタデータ) (2023-06-29T10:37:29Z) - TEXTure: Text-Guided Texturing of 3D Shapes [71.13116133846084]
TEXTureは,テクスチャのテクスチャのテクスチャの編集,編集,転送を行う新しい方法である。
表面テクスチャを明示することなくシームレスな3次元テクスチャを生成する3次元マップ分割プロセスを定義する。
論文 参考訳(メタデータ) (2023-02-03T13:18:45Z) - Texture for Colors: Natural Representations of Colors Using Variable
Bit-Depth Textures [13.180922099929765]
そこで本研究では,画像の強度だけでなく,元の色も表わす2値テクスチャの組に画像が変換される自動手法を提案する。
このシステムは、様々な画像ソースでテストすると、美的にバイナリイメージを満足させる。
論文 参考訳(メタデータ) (2021-05-04T21:22:02Z) - A deep learning based interactive sketching system for fashion images
design [47.09122395308728]
ファッションスケッチとテクスチャ情報から,多様な高品質な衣料品画像をデザインするインタラクティブシステムを提案する。
このシステムの背後にある大きな課題は、ユーザが提供するテクスチャ情報に基づいて高品質で詳細なテクスチャを生成することである。
特に、テクスチャ化された衣料画像を合成する新しい二色エッジテクスチャ表現と、グレースケールエッジに基づいてシェーディングをレンダリングするシェーディングエンハンサーを提案する。
論文 参考訳(メタデータ) (2020-10-09T07:50:56Z) - Region-adaptive Texture Enhancement for Detailed Person Image Synthesis [86.69934638569815]
RATE-Netは、シャープなテクスチャで人物画像を合成するための新しいフレームワークである。
提案するフレームワークは,テクスチャ強化モジュールを利用して,画像から外観情報を抽出する。
DeepFashionベンチマークデータセットで実施された実験は、既存のネットワークと比較して、我々のフレームワークの優位性を実証した。
論文 参考訳(メタデータ) (2020-05-26T02:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。