論文の概要: In the light of feature distributions: moment matching for Neural Style
Transfer
- arxiv url: http://arxiv.org/abs/2103.07208v1
- Date: Fri, 12 Mar 2021 11:00:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-15 19:21:28.711599
- Title: In the light of feature distributions: moment matching for Neural Style
Transfer
- Title(参考訳): 特徴分布に照らして:ニューラルスタイル転送のためのモーメントマッチング
- Authors: Nikolai Kalischek, Jan Dirk Wegner, Konrad Schindler
- Abstract要約: スタイル転送は、ある画像のコンテンツを別の画像のグラフィカル/アーティスティックスタイルでレンダリングすることを目的としています。
この概念の現在の実装は、理論上、実用上重要な制限がある。
計算効率を保ちながら、希望するスタイルをより正確にマッチさせる新しいアプローチを提案します。
- 参考スコア(独自算出の注目度): 27.25600860698314
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Style transfer aims to render the content of a given image in the
graphical/artistic style of another image. The fundamental concept underlying
NeuralStyle Transfer (NST) is to interpret style as a distribution in the
feature space of a Convolutional Neural Network, such that a desired style can
be achieved by matching its feature distribution. We show that most current
implementations of that concept have important theoretical and practical
limitations, as they only partially align the feature distributions. We propose
a novel approach that matches the distributions more precisely, thus
reproducing the desired style more faithfully, while still being
computationally efficient. Specifically, we adapt the dual form of Central
Moment Discrepancy (CMD), as recently proposed for domain adaptation, to
minimize the difference between the target style and the feature distribution
of the output image. The dual interpretation of this metric explicitly matches
all higher-order centralized moments and is therefore a natural extension of
existing NST methods that only take into account the first and second moments.
Our experiments confirm that the strong theoretical properties also translate
to visually better style transfer, and better disentangle style from semantic
image content.
- Abstract(参考訳): スタイル転送は、ある画像のコンテンツを別の画像のグラフィカル/アーティスティックスタイルでレンダリングすることを目的としています。
NeuralStyle Transfer(NST)の基本コンセプトは、Convolutional Neural Networkの特徴空間における分布としてスタイルを解釈し、その特徴分布を一致させることで望ましいスタイルを実現できるようにすることである。
この概念の現在の実装のほとんどは、機能分布の部分的な整合性のため、重要な理論的および実践的な制限があることを示します。
本稿では,より正確に分布をマッチングし,計算効率を保ちつつ,より忠実に所望のスタイルを再現する手法を提案する。
具体的には、最近ドメイン適応のために提案されたCMD(Central Moment Discrepancy)の二重形式を適用し、出力画像の特徴分布とターゲットスタイルの違いを最小限に抑える。
この計量の双対解釈は、すべての高階集中モーメントと明示的に一致し、従って、第1モーメントと第2モーメントのみを考慮に入れた既存のNST法の自然な拡張である。
実験により,強い理論的特性は視覚的に優れたスタイル伝達とセマンティックな画像コンテンツからより良いアンタングルスタイルに変換されることが確認された。
関連論文リスト
- Style Injection in Diffusion: A Training-free Approach for Adapting Large-scale Diffusion Models for Style Transfer [19.355744690301403]
本研究では,事前学習した大規模拡散モデルに基づく新たな芸術的スタイル伝達手法を提案する。
実験の結果,提案手法は従来の手法と拡散型方式の両方で最先端の手法を超越していることがわかった。
論文 参考訳(メタデータ) (2023-12-11T09:53:12Z) - Improving Diffusion-based Image Translation using Asymmetric Gradient
Guidance [51.188396199083336]
非対称勾配法の適用により拡散サンプリングの逆過程を導出する手法を提案する。
我々のモデルの適応性は、画像融合モデルと潜時拡散モデルの両方で実装できる。
実験により,本手法は画像翻訳タスクにおいて,様々な最先端モデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-06-07T12:56:56Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - Diffusion-based Image Translation using Disentangled Style and Content
Representation [51.188396199083336]
セマンティックテキストや単一のターゲット画像でガイドされた拡散ベースの画像変換により、柔軟なスタイル変換が可能になった。
逆拡散中、画像の原内容を維持することはしばしば困難である。
本稿では,不整合スタイルとコンテンツ表現を用いた新しい拡散に基づく教師なし画像翻訳手法を提案する。
提案手法は,テキスト誘導と画像誘導の両方の翻訳作業において,最先端のベースラインモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-09-30T06:44:37Z) - Learning Graph Neural Networks for Image Style Transfer [131.73237185888215]
最先端のパラメトリックおよび非パラメトリックなスタイル転送アプローチは、グローバルな統計アライメントによる局所的なスタイルパターンの歪んだり、パッチミスマッチによるアーティファクトを減らしたりする傾向にある。
本稿では,パラメトリック型と非パラメトリック型の両方のスタイライゼーションの欠如を緩和する,新しい半パラメトリック型ニューラルスタイルトランスファーフレームワークについて検討する。
論文 参考訳(メタデータ) (2022-07-24T07:41:31Z) - CCPL: Contrastive Coherence Preserving Loss for Versatile Style Transfer [58.020470877242865]
我々は,芸術的,写真的,映像的スタイルのトランスファーを共同で行うことができる汎用的なスタイルトランスファー手法を考案した。
我々は,グローバル不整合が局所的不整合に支配されているという軽度かつ合理的な仮定を定め,局所的パッチに適用した汎用的コントラストコヒーレンス保存損失(CCPL)を考案する。
CCPLは、スタイル化を低下させることなく、スタイル転送中のコンテンツソースのコヒーレンスを保存することができる。
論文 参考訳(メタデータ) (2022-07-11T12:09:41Z) - Style is a Distribution of Features [2.398608007786179]
ニューラルスタイル転送(Neural style transfer)は、畳み込みニューラルネットワーク(CNN)を使用して、ある画像の内容を他の画像のスタイルとマージする画像生成技術である。
本稿では,特徴量分布間のワッサーシュタイン距離としてスタイル損失を再定義することにより,特徴量からスタイルを完全抽出するスタイル転送アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-25T21:17:51Z) - Manifold Alignment for Semantically Aligned Style Transfer [61.1274057338588]
我々は,同じ意味領域からの画像特徴が多様体を形成し,複数の意味領域を持つ画像が多次元分布に従うことを仮定する。
この仮定に基づき、スタイル伝達問題は2つの多次元分布の整列として定式化される。
提案したフレームワークは、出力とスタイルイメージの間の意味的に類似した領域を、類似したスタイルパターンを共有することができる。
論文 参考訳(メタデータ) (2020-05-21T16:52:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。