論文の概要: A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning
- arxiv url: http://arxiv.org/abs/2303.12710v2
- Date: Thu, 23 Mar 2023 14:13:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-24 17:06:04.821213
- Title: A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning
- Title(参考訳): 適応型コントラスト学習による統一型任意スタイル伝達フレームワーク
- Authors: Yuxin Zhang, Fan Tang, Weiming Dong, Haibin Huang, Chongyang Ma,
Tong-Yee Lee, Changsheng Xu
- Abstract要約: Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
- 参考スコア(独自算出の注目度): 84.8813842101747
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Unified Contrastive Arbitrary Style Transfer (UCAST), a novel
style representation learning and transfer framework, which can fit in most
existing arbitrary image style transfer models, e.g., CNN-based, ViT-based, and
flow-based methods. As the key component in image style transfer tasks, a
suitable style representation is essential to achieve satisfactory results.
Existing approaches based on deep neural network typically use second-order
statistics to generate the output. However, these hand-crafted features
computed from a single image cannot leverage style information sufficiently,
which leads to artifacts such as local distortions and style inconsistency. To
address these issues, we propose to learn style representation directly from a
large amount of images based on contrastive learning, by taking the
relationships between specific styles and the holistic style distribution into
account. Specifically, we present an adaptive contrastive learning scheme for
style transfer by introducing an input-dependent temperature. Our framework
consists of three key components, i.e., a parallel contrastive learning scheme
for style representation and style transfer, a domain enhancement module for
effective learning of style distribution, and a generative network for style
transfer. We carry out qualitative and quantitative evaluations to show that
our approach produces superior results than those obtained via state-of-the-art
methods.
- Abstract(参考訳): 本稿では,cnnベース,vitベース,フローベースなど,既存の任意の画像スタイル転送モデルに適合可能な,新しいスタイル表現学習・転送フレームワークであるunified contrastive arbitrary style transfer (ucast)を提案する。
画像スタイル転送タスクの重要なコンポーネントとして、適切なスタイル表現は、十分な結果を得るのに不可欠である。
ディープニューラルネットワークに基づく既存のアプローチは通常、出力を生成するために2階統計を使用する。
しかし、単一の画像から計算されたこれらの手作りの特徴は、スタイル情報を十分に活用できないため、局所的な歪みやスタイルの不整合などのアーティファクトに繋がる。
これらの課題に対処するために,特定のスタイルと全体的スタイル分布の関係を考慮し,コントラスト学習に基づく大量の画像からスタイル表現を直接学習することを提案する。
具体的には,入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
本手法は,最先端の手法により得られた手法よりも優れた結果が得られることを示すため,定性的かつ定量的な評価を行う。
関連論文リスト
- DiffuseST: Unleashing the Capability of the Diffusion Model for Style Transfer [13.588643982359413]
スタイル転送は、スタイル画像の芸術的表現をコンテンツ画像の構造情報と融合させることを目的としている。
既存の方法は特定のネットワークを訓練したり、事前訓練されたモデルを使ってコンテンツやスタイルの特徴を学習する。
本稿では,テキスト埋め込みと空間的特徴を組み合わせた,新しい学習不要なスタイル伝達手法を提案する。
論文 参考訳(メタデータ) (2024-10-19T06:42:43Z) - Rethink Arbitrary Style Transfer with Transformer and Contrastive Learning [11.900404048019594]
本稿では,スタイリング画像の品質向上のための革新的手法を提案する。
まず、コンテンツとスタイルの特徴の整合性を改善する手法であるスタイル一貫性インスタンス正規化(SCIN)を提案する。
さらに,様々なスタイル間の関係を理解するために,インスタンスベースのコントラスト学習(ICL)アプローチを開発した。
論文 参考訳(メタデータ) (2024-04-21T08:52:22Z) - Style Injection in Diffusion: A Training-free Approach for Adapting Large-scale Diffusion Models for Style Transfer [19.355744690301403]
本研究では,事前学習した大規模拡散モデルに基づく新たな芸術的スタイル伝達手法を提案する。
実験の結果,提案手法は従来の手法と拡散型方式の両方で最先端の手法を超越していることがわかった。
論文 参考訳(メタデータ) (2023-12-11T09:53:12Z) - DiffStyler: Controllable Dual Diffusion for Text-Driven Image
Stylization [66.42741426640633]
DiffStylerは、拡散された結果の内容とスタイルのバランスを制御するための二重拡散処理アーキテクチャである。
本稿では、逆復調処理をベースとしたコンテンツ画像に基づく学習可能なノイズを提案し、そのスタイリング結果により、コンテンツ画像の構造情報をよりよく保存する。
論文 参考訳(メタデータ) (2022-11-19T12:30:44Z) - Learning Graph Neural Networks for Image Style Transfer [131.73237185888215]
最先端のパラメトリックおよび非パラメトリックなスタイル転送アプローチは、グローバルな統計アライメントによる局所的なスタイルパターンの歪んだり、パッチミスマッチによるアーティファクトを減らしたりする傾向にある。
本稿では,パラメトリック型と非パラメトリック型の両方のスタイライゼーションの欠如を緩和する,新しい半パラメトリック型ニューラルスタイルトランスファーフレームワークについて検討する。
論文 参考訳(メタデータ) (2022-07-24T07:41:31Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - STALP: Style Transfer with Auxiliary Limited Pairing [36.23393954839379]
本稿では,1対のソース画像と,そのスタイリング画像を用いた画像の例ベーススタイリング手法を提案する。
本研究では,対象画像に対するリアルタイムな意味論的スタイル転送が可能な画像翻訳ネットワークの訓練方法を示す。
論文 参考訳(メタデータ) (2021-10-20T11:38:41Z) - Arbitrary Style Transfer via Multi-Adaptation Network [109.6765099732799]
所望のスタイル転送は、内容画像と参照されたスタイル絵が与えられた場合、そのスタイル絵の色調と鮮やかなストロークパターンで内容画像を描画する。
新たな不整合損失関数により,本ネットワークは,様々な入力画像に適応する主文パターンと正確なコンテンツ構造を抽出できる。
論文 参考訳(メタデータ) (2020-05-27T08:00:22Z) - Parameter-Free Style Projection for Arbitrary Style Transfer [64.06126075460722]
本稿では,パラメータフリー,高速,効果的なコンテンツスタイル変換のための特徴レベル変換手法であるStyle Projectionを提案する。
本稿では、任意の画像スタイルの転送にスタイル投影を利用するリアルタイムフィードフォワードモデルを提案する。
論文 参考訳(メタデータ) (2020-03-17T13:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。