論文の概要: Unified Style Transfer
- arxiv url: http://arxiv.org/abs/2110.10481v1
- Date: Wed, 20 Oct 2021 10:45:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-22 17:18:48.290396
- Title: Unified Style Transfer
- Title(参考訳): 統一型転送
- Authors: Guanjie Huang, Hongjian He, Xiang Li, Xingchen Li, Ziang Liu
- Abstract要約: スタイルのカオス的定義のために異なるスタイル転送アルゴリズムを比較して評価することは困難である。
本稿では,新しいアプローチである統一スタイル転送(UST)モデルを提案する。
内部スタイル表現のための生成モデルの導入により、USTは、ドメインベースとイメージベースという2つのアプローチで画像を同時に転送することができる。
- 参考スコア(独自算出の注目度): 6.914642763754318
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Currently, it is hard to compare and evaluate different style transfer
algorithms due to chaotic definitions of style and the absence of agreed
objective validation methods in the study of style transfer. In this paper, a
novel approach, the Unified Style Transfer (UST) model, is proposed. With the
introduction of a generative model for internal style representation, UST can
transfer images in two approaches, i.e., Domain-based and Image-based,
simultaneously. At the same time, a new philosophy based on the human sense of
art and style distributions for evaluating the transfer model is presented and
demonstrated, called Statistical Style Analysis. It provides a new path to
validate style transfer models' feasibility by validating the general
consistency between internal style representation and art facts. Besides, the
translation-invariance of AdaIN features is also discussed.
- Abstract(参考訳): 現在、スタイルのカオス的定義と、スタイル伝達の研究において合意された客観的検証方法がないため、異なるスタイル転送アルゴリズムの比較と評価は困難である。
本稿では,新しいアプローチである統一スタイル転送(UST)モデルを提案する。
内部スタイル表現のための生成モデルを導入することで、ustは2つのアプローチ、すなわちドメインベースとイメージベースを同時に転送することができる。
同時に,トランスファーモデルを評価するための,人間的芸術意識とスタイル分布に基づく新しい哲学を,統計的スタイル分析(statistical style analysis)という形で提示し,実証した。
内部スタイル表現とアート事実の一般的な一貫性を検証することによって、スタイル転送モデルの有効性を検証する新しいパスを提供する。
また,AdaIN特徴の翻訳不変性についても論じる。
関連論文リスト
- HiCAST: Highly Customized Arbitrary Style Transfer with Adapter Enhanced
Diffusion Models [84.12784265734238]
Arbitrary Style Transfer (AST)の目標は、あるスタイル参照の芸術的特徴を所定の画像/ビデオに注入することである。
各種のセマンティックな手がかりに基づいてスタイリング結果を明示的にカスタマイズできるHiCASTを提案する。
新たな学習目標をビデオ拡散モデルトレーニングに活用し,フレーム間の時間的一貫性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-01-11T12:26:23Z) - Style Injection in Diffusion: A Training-free Approach for Adapting Large-scale Diffusion Models for Style Transfer [19.355744690301403]
本研究では,事前学習した大規模拡散モデルに基づく新たな芸術的スタイル伝達手法を提案する。
実験の結果,提案手法は従来の手法と拡散型方式の両方で最先端の手法を超越していることがわかった。
論文 参考訳(メタデータ) (2023-12-11T09:53:12Z) - DIFF-NST: Diffusion Interleaving For deFormable Neural Style Transfer [27.39248034592382]
変形可能なスタイル転送を実現しつつ,新しいモデルのクラスを用いてスタイル転送を行う。
これらのモデルの先行モデルを活用することで、推論時に新たな芸術的コントロールが公開できることを示す。
論文 参考訳(メタデータ) (2023-07-09T12:13:43Z) - MODIFY: Model-driven Face Stylization without Style Images [77.24793103549158]
既存の顔のスタイリング手法は、翻訳プロセス中に常にターゲット(スタイル)ドメインの存在を取得する。
そこで本研究では,MODel-drIven Face stYlization (MODIFY) と呼ばれる新たな手法を提案する。
複数の異なるデータセットに対する実験結果は、教師なし顔のスタイリングにおけるMODIFYの有効性を検証した。
論文 参考訳(メタデータ) (2023-03-17T08:35:17Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - Neural Artistic Style Transfer with Conditional Adversaria [0.0]
神経芸術スタイル変換モデルは、有名な画像のスタイルを追加することで、単純な画像の外観を変更することができる。
本稿では,画像独立型ニューラルスタイル転送モデルに向けた2つの手法を提案する。
我々の新しい貢献は、モデルアーキテクチャによる循環的一貫性を保証する一方向GANモデルである。
論文 参考訳(メタデータ) (2023-02-08T04:34:20Z) - Learning Graph Neural Networks for Image Style Transfer [131.73237185888215]
最先端のパラメトリックおよび非パラメトリックなスタイル転送アプローチは、グローバルな統計アライメントによる局所的なスタイルパターンの歪んだり、パッチミスマッチによるアーティファクトを減らしたりする傾向にある。
本稿では,パラメトリック型と非パラメトリック型の両方のスタイライゼーションの欠如を緩和する,新しい半パラメトリック型ニューラルスタイルトランスファーフレームワークについて検討する。
論文 参考訳(メタデータ) (2022-07-24T07:41:31Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - Pastiche Master: Exemplar-Based High-Resolution Portrait Style Transfer [103.54337984566877]
StyleGANの最近の研究は、限られたデータを用いたトランスファーラーニングによる芸術的肖像画生成に高い性能を示している。
本稿では,オリジナルフェイスドメインと拡張アートポートレートドメインの両スタイルを柔軟に制御できる新しいDualStyleGANを提案する。
高品質なポートレートスタイル転送とフレキシブルなスタイル制御において、DualStyleGANが最先端の手法よりも優れていることを示す実験である。
論文 参考訳(メタデータ) (2022-03-24T17:57:11Z) - In the light of feature distributions: moment matching for Neural Style
Transfer [27.25600860698314]
スタイル転送は、ある画像のコンテンツを別の画像のグラフィカル/アーティスティックスタイルでレンダリングすることを目的としています。
この概念の現在の実装は、理論上、実用上重要な制限がある。
計算効率を保ちながら、希望するスタイルをより正確にマッチさせる新しいアプローチを提案します。
論文 参考訳(メタデータ) (2021-03-12T11:00:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。