論文の概要: Industrial Style Transfer with Large-scale Geometric Warping and Content
Preservation
- arxiv url: http://arxiv.org/abs/2203.12835v1
- Date: Thu, 24 Mar 2022 03:47:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-25 13:48:30.291033
- Title: Industrial Style Transfer with Large-scale Geometric Warping and Content
Preservation
- Title(参考訳): 大規模風化とコンテンツ保存による産業スタイルの伝達
- Authors: Jinchao Yang, Fei Guo, Shuo Chen, Jun Li and Jian Yang
- Abstract要約: 本稿では,産業デザイナーの参考として,新しいビジュアル製品を迅速に作成するための新しいスタイル転送手法を提案する。
本手法は, 原点生成物, 対象物, アートスタイルの画像から, ターゲットの幾何学的形状を模倣するために, 原点形状を歪曲するニューラルワーピング場を生成する。
我々のモデルであるInst(Industrial Style Transfer)は、大規模幾何学的ワープ(LGW)とICTT(inter interest-consistency texture Transfer)から構成される。
- 参考スコア(独自算出の注目度): 24.387997320024137
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel style transfer method to quickly create a new visual
product with a nice appearance for industrial designers' reference. Given a
source product, a target product, and an art style image, our method produces a
neural warping field that warps the source shape to imitate the geometric style
of the target and a neural texture transformation network that transfers the
artistic style to the warped source product. Our model, Industrial Style
Transfer (InST), consists of large-scale geometric warping (LGW) and
interest-consistency texture transfer (ICTT). LGW aims to explore an
unsupervised transformation between the shape masks of the source and target
products for fitting large-scale shape warping. Furthermore, we introduce a
mask smoothness regularization term to prevent the abrupt changes of the
details of the source product. ICTT introduces an interest regularization term
to maintain important contents of the warped product when it is stylized by
using the art style image. Extensive experimental results demonstrate that InST
achieves state-of-the-art performance on multiple visual product design tasks,
e.g., companies' snail logos and classical bottles (please see Fig. 1). To the
best of our knowledge, we are the first to extend the neural style transfer
method to create industrial product appearances. Project page:
\ulr{https://jcyang98.github.io/InST/home.html}. Code available at:
\url{https://github.com/jcyang98/InST}.
- Abstract(参考訳): 本稿では,産業デザイナーの参考として,新しいビジュアル製品を迅速に作成するための新しいスタイル転送手法を提案する。
ソース製品、ターゲット製品、アートスタイル画像が与えられた場合、本手法は、ソース形状を歪ませてターゲットの幾何学的スタイルを模倣するニューラルウォーピングフィールドと、アートスタイルをワープしたソース製品に転送するニューラルテクスチャ変換ネットワークを生成する。
我々のモデルであるinst(industrial style transfer)は,lgw(large-scale geometric warping)とictt(interest-consistency texture transfer)から構成される。
LGWは、ソースの形状マスクとターゲット製品との間の教師なし変換を、大規模形状整形に適合させるために探究することを目的としている。
さらに,マスク平滑化規則化用語を導入し,ソース製品の詳細が突然変化するのを防止する。
ICTTは、アートスタイルの画像を用いてスタイリングされる際に、ワープされた製品の重要な内容を維持するための関心規則化用語を導入する。
大規模な実験結果から、InSTは複数の視覚製品デザインタスク、例えば企業のスネイルロゴやクラシックボトル(図1参照)において最先端のパフォーマンスを達成することが示されている。
我々の知る限りでは、我々は初めて、産業製品の外観を作り出すためにニューラルスタイルのトランスファー手法を拡張した。
プロジェクトページ: \ulr{https://jcyang98.github.io/InST/home.html}。
コードは \url{https://github.com/jcyang98/inst}。
関連論文リスト
- Deformable One-shot Face Stylization via DINO Semantic Guidance [12.771707124161665]
本稿では、外観と構造を同時に考慮したワンショット顔スタイリングの問題に対処する。
従来の単一イメージスタイルの参照から切り離された変形認識顔のスタイリングを探索し、代わりにリアルスタイルのイメージペアを選択する。
論文 参考訳(メタデータ) (2024-03-01T11:30:55Z) - FISTNet: FusIon of STyle-path generative Networks for Facial Style Transfer [15.308837341075135]
StyleGAN法は、顔画像にアーティファクトが導入された結果、過度に適合する傾向にある。
本稿では,事前学習したマルチパス方式の転送ネットワークを利用する顔画像のためのFusIon of STyles(FIST)ネットワークを提案する。
論文 参考訳(メタデータ) (2023-07-18T07:20:31Z) - DIFF-NST: Diffusion Interleaving For deFormable Neural Style Transfer [27.39248034592382]
変形可能なスタイル転送を実現しつつ,新しいモデルのクラスを用いてスタイル転送を行う。
これらのモデルの先行モデルを活用することで、推論時に新たな芸術的コントロールが公開できることを示す。
論文 参考訳(メタデータ) (2023-07-09T12:13:43Z) - StylerDALLE: Language-Guided Style Transfer Using a Vector-Quantized
Tokenizer of a Large-Scale Generative Model [64.26721402514957]
本論文では,自然言語を用いて抽象芸術スタイルを記述するスタイル転送手法であるStylerDALLEを提案する。
具体的には、非自己回帰的なトークンシーケンス変換として、言語誘導型転送タスクを定式化する。
スタイル情報を組み込むために,CLIPに基づく言語指導による強化学習戦略を提案する。
論文 参考訳(メタデータ) (2023-03-16T12:44:44Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - QuantArt: Quantizing Image Style Transfer Towards High Visual Fidelity [94.5479418998225]
視覚的忠実度の高いスタイリングのためのQuantArtと呼ばれる新しいスタイル転送フレームワークを提案する。
本フレームワークは,既存のスタイル転送方式と比較して,視覚的忠実度を著しく向上させる。
論文 参考訳(メタデータ) (2022-12-20T17:09:53Z) - Fine-Grained Image Style Transfer with Visual Transformers [59.85619519384446]
本稿では,コンテンツとスタイルイメージの両方を視覚トークンに分割し,よりきめ細かなスタイル変換を実現するSTTR(Style TRansformer)ネットワークを提案する。
STTRと既存のアプローチを比較するために,Amazon Mechanical Turkのユーザスタディを実施している。
論文 参考訳(メタデータ) (2022-10-11T06:26:00Z) - Controllable Person Image Synthesis with Spatially-Adaptive Warped
Normalization [72.65828901909708]
制御可能な人物画像生成は、望ましい属性を持つ現実的な人間の画像を作成することを目的としている。
本稿では,学習フロー場とワープ変調パラメータを統合した空間適応型ワープ正規化(SAWN)を提案する。
本稿では,テクスチャ・トランスファータスクの事前学習モデルを洗練するための,新たな自己学習部分置換戦略を提案する。
論文 参考訳(メタデータ) (2021-05-31T07:07:44Z) - Geometric Style Transfer [74.58782301514053]
幾何学的スタイルの伝達をサポートするニューラルアーキテクチャを導入する。
新しいアーキテクチャはテクスチャスタイルを転送するネットワークに先立って実行される。
ユーザーはコンテント/スタイルのペアを一般的なように入力したり、コンテント/テクスチャスタイル/幾何学スタイルのトリプルを入力できる。
論文 参考訳(メタデータ) (2020-07-10T16:33:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。