論文の概要: Non-Parametric Style Transfer
- arxiv url: http://arxiv.org/abs/2206.12921v1
- Date: Sun, 26 Jun 2022 16:34:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-28 15:12:05.416634
- Title: Non-Parametric Style Transfer
- Title(参考訳): 非パラメトリックスタイル転送
- Authors: Jeong-Sik Lee, Hyun-Chul Choi
- Abstract要約: 最近のフィードフォワードニューラル法では、主にエンコードされた特徴写像を2次統計量まで利用している。
我々は,画像のスタイルが受容場からの応答の分布によって表されるという認識に基づいて,2階統計特徴マッチングを一般分布マッチングに拡張する。
この結果から,本手法により得られたスタイリング画像は,コンテンツクリアネスを損なうことなく,既存のすべてのスタイル尺度におけるターゲットスタイル画像とより類似していることが証明された。
- 参考スコア(独自算出の注目度): 0.9137554315375919
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent feed-forward neural methods of arbitrary image style transfer mainly
utilized encoded feature map upto its second-order statistics, i.e., linearly
transformed the encoded feature map of a content image to have the same mean
and variance (or covariance) of a target style feature map. In this work, we
extend the second-order statistical feature matching into a general
distribution matching based on the understanding that style of an image is
represented by the distribution of responses from receptive fields. For this
generalization, first, we propose a new feature transform layer that exactly
matches the feature map distribution of content image into that of target style
image. Second, we analyze the recent style losses consistent with our new
feature transform layer to train a decoder network which generates a style
transferred image from the transformed feature map. Based on our experimental
results, it is proven that the stylized images obtained with our method are
more similar with the target style images in all existing style measures
without losing content clearness.
- Abstract(参考訳): 最近の任意の画像スタイル転送のフィードフォワードニューラルな手法では、主に符号化された特徴マップを2次統計、すなわち、コンテンツ画像の符号化された特徴マップを、ターゲットスタイルの特徴マップの同じ平均と分散(または共分散)を持つように線形に変換した。
本研究では,画像のスタイルが受容体からの応答の分布によって表現されるという理解に基づいて,二階の統計的特徴マッチングを一般分布マッチングに拡張する。
この一般化のために,まず,コンテンツ画像の特徴マップ分布とターゲット画像の特徴マップ分布を正確に一致させる特徴変換層を提案する。
第2に,新しい機能変換層と整合した最近のスタイル損失を分析し,変換された機能マップからスタイル転送画像を生成するデコーダネットワークを訓練する。
実験結果から,本手法により得られたスタイリング画像は,コンテンツクリアネスを損なうことなく,既存のすべてのスタイル尺度において,ターゲットスタイル画像とより類似していることが証明された。
関連論文リスト
- A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - Neural Style Transfer for Vector Graphics [3.8983556368110226]
ベクトル画像間のスタイル転送は検討されていない。
標準的なコンテンツとスタイルの損失を適用することは、ベクトル画像描画スタイルを著しく変える。
微分可能化に基づく新しい手法は、スタイル画像の描画に対応するコンテンツ画像の色と形状パラメータを変更することができる。
論文 参考訳(メタデータ) (2023-03-06T16:57:45Z) - DSI2I: Dense Style for Unpaired Image-to-Image Translation [70.93865212275412]
Inpaired exemplar-based image-to-image (UEI2I) 翻訳は、ソース画像をターゲット画像領域に変換する。
我々は,スタイルを高密度な特徴写像として表現し,外部意味情報を必要とせず,よりきめ細かなソース画像の転送を可能にすることを提案する。
以上の結果から,本手法による翻訳は,より多様であり,資料内容の保存性が向上し,最先端の手法と比較すると,先例に近づいたことが示唆された。
論文 参考訳(メタデータ) (2022-12-26T18:45:25Z) - Diffusion-based Image Translation using Disentangled Style and Content
Representation [51.188396199083336]
セマンティックテキストや単一のターゲット画像でガイドされた拡散ベースの画像変換により、柔軟なスタイル変換が可能になった。
逆拡散中、画像の原内容を維持することはしばしば困難である。
本稿では,不整合スタイルとコンテンツ表現を用いた新しい拡散に基づく教師なし画像翻訳手法を提案する。
提案手法は,テキスト誘導と画像誘導の両方の翻訳作業において,最先端のベースラインモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-09-30T06:44:37Z) - Learning Graph Neural Networks for Image Style Transfer [131.73237185888215]
最先端のパラメトリックおよび非パラメトリックなスタイル転送アプローチは、グローバルな統計アライメントによる局所的なスタイルパターンの歪んだり、パッチミスマッチによるアーティファクトを減らしたりする傾向にある。
本稿では,パラメトリック型と非パラメトリック型の両方のスタイライゼーションの欠如を緩和する,新しい半パラメトリック型ニューラルスタイルトランスファーフレームワークについて検討する。
論文 参考訳(メタデータ) (2022-07-24T07:41:31Z) - $\texttt{GradICON}$: Approximate Diffeomorphisms via Gradient Inverse
Consistency [16.72466200341455]
ニューラルネットワークを用いて、ソースとターゲットイメージ間のマップと、ソースとターゲットイメージを切り替える際のマップを予測します。
我々は,様々な実世界の医療画像データセットに対して,最先端の登録性能を実現する。
論文 参考訳(メタデータ) (2022-06-13T04:03:49Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - Saliency Constrained Arbitrary Image Style Transfer using SIFT and DCNN [22.57205921266602]
一般的なニューラルスタイルの転送方法を使用する場合、スタイル画像のテクスチャや色は通常、コンテンツ画像に不完全に転送される。
本稿では,その効果を低減・回避するための新しいサリエンシ制約手法を提案する。
実験により、ソースイメージの正当性マップは正しいマッチングを見つけ出し、アーティファクトを避けるのに役立つことが示された。
論文 参考訳(メタデータ) (2022-01-14T09:00:55Z) - Arbitrary Style Transfer using Graph Instance Normalization [25.05195837557028]
スタイル転送は、コンテンツを保存しながらある画像のスタイルを別の画像に適用するタスクである。
統計学的手法では、アダプティブインスタンス正規化(AdaIN)は、特徴の平均と分散を正規化することにより、ソースイメージを白くし、ターゲットイメージのスタイルを適用する。
グラフ畳み込みネットワーク(GrIN)を用いた新しい学習可能正規化手法を提案する。
論文 参考訳(メタデータ) (2020-10-06T09:07:20Z) - Manifold Alignment for Semantically Aligned Style Transfer [61.1274057338588]
我々は,同じ意味領域からの画像特徴が多様体を形成し,複数の意味領域を持つ画像が多次元分布に従うことを仮定する。
この仮定に基づき、スタイル伝達問題は2つの多次元分布の整列として定式化される。
提案したフレームワークは、出力とスタイルイメージの間の意味的に類似した領域を、類似したスタイルパターンを共有することができる。
論文 参考訳(メタデータ) (2020-05-21T16:52:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。