論文の概要: A Content Transformation Block For Image Style Transfer
- arxiv url: http://arxiv.org/abs/2003.08407v1
- Date: Wed, 18 Mar 2020 18:00:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 13:00:20.813983
- Title: A Content Transformation Block For Image Style Transfer
- Title(参考訳): 画像スタイル変換のためのコンテンツ変換ブロック
- Authors: Dmytro Kotovenko, Artsiom Sanakoyeu, Pingchuan Ma, Sabine Lang,
Bj\"orn Ommer
- Abstract要約: 本稿では,コンテンツイメージのコンテンツとスタイルを意識したスタイル化に焦点を当てた。
写真やスタイルのサンプルに現れる類似のコンテンツを利用して、スタイルがコンテンツの詳細をどう変えるかを学ぶ。
本モデルのロバスト性と速度は,リアルタイムかつ高精細なビデオスタイリングを可能にする。
- 参考スコア(独自算出の注目度): 16.25958537802466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Style transfer has recently received a lot of attention, since it allows to
study fundamental challenges in image understanding and synthesis. Recent work
has significantly improved the representation of color and texture and
computational speed and image resolution. The explicit transformation of image
content has, however, been mostly neglected: while artistic style affects
formal characteristics of an image, such as color, shape or texture, it also
deforms, adds or removes content details. This paper explicitly focuses on a
content-and style-aware stylization of a content image. Therefore, we introduce
a content transformation module between the encoder and decoder. Moreover, we
utilize similar content appearing in photographs and style samples to learn how
style alters content details and we generalize this to other class details.
Additionally, this work presents a novel normalization layer critical for high
resolution image synthesis. The robustness and speed of our model enables a
video stylization in real-time and high definition. We perform extensive
qualitative and quantitative evaluations to demonstrate the validity of our
approach.
- Abstract(参考訳): 画像理解と合成における根本的な課題を研究できるため、スタイル転送は最近多くの注目を集めている。
最近の研究は、色、テクスチャ、計算速度、画像解像度の表現を大幅に改善した。
芸術的なスタイルは、色、形、テクスチャといった画像の形式的特徴に影響を与えるが、コンテンツの詳細を変形、追加、削除する。
本稿では,コンテンツイメージのコンテンツとスタイルを意識したスタイル化に焦点を当てた。
そこで,エンコーダとデコーダの間にコンテンツ変換モジュールを導入する。
さらに、写真やスタイルサンプルに現れる類似コンテンツを利用して、スタイルがコンテンツの詳細をどのように変更するかを学習し、これを他のクラスの詳細に一般化する。
さらに,高分解能画像合成に不可欠な新しい正規化層を提案する。
モデルの堅牢性と速度は,リアルタイムかつ高精細なビデオスタイリングを可能にする。
我々は,提案手法の有効性を示すために,質的かつ定量的な評価を行う。
関連論文リスト
- AEANet: Affinity Enhanced Attentional Networks for Arbitrary Style Transfer [4.639424509503966]
合理的な学術研究とエモーティブな芸術的創造を組み合わせた研究分野。
対象の芸術的スタイルに従ってコンテンツイメージから新たなイメージを作成し、コンテンツのテクスチャ構造情報を維持することを目的としている。
既存のスタイル転送方式は、スタイル変換時のコンテンツ画像のテクスチャ線を著しく損なうことが多い。
本稿では,コンテンツ親和性強調モジュール(CAEA),スタイル親和性強調モジュール(SAEA),ハイブリッド親和性強調モジュール(HA)を含む親和性強調ネットワークを提案する。
論文 参考訳(メタデータ) (2024-09-23T01:39:11Z) - Puff-Net: Efficient Style Transfer with Pure Content and Style Feature Fusion Network [32.12413686394824]
スタイル転送は、オリジナルの構造を維持しながら、スタイルイメージの芸術的な特徴で画像をレンダリングすることを目的としている。
CNNベースの手法では、入力画像間の大域的情報と長距離依存関係を扱うことは困難である。
我々はPuff-Netと呼ばれる新しいネットワーク、すなわち純粋コンテンツとスタイルの機能融合ネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-30T07:41:07Z) - ControlStyle: Text-Driven Stylized Image Generation Using Diffusion
Priors [105.37795139586075]
そこで本研究では,テキスト駆動型スタイリング画像生成という,テキスト・イメージ・モデルをスタイリングするための新しいタスクを提案する。
トレーニング可能な変調ネットワークで事前訓練されたテキスト・ツー・イメージモデルをアップグレードすることで,新しい拡散モデル(ControlStyle)を提案する。
実験では、より視覚的で芸術的な結果を生み出すためのコントロールスタイルの有効性が示されています。
論文 参考訳(メタデータ) (2023-11-09T15:50:52Z) - Generative AI Model for Artistic Style Transfer Using Convolutional
Neural Networks [0.0]
芸術的なスタイルの転送は、ある画像の内容を別の芸術的なスタイルに融合させ、ユニークな視覚的な構成を作り出すことである。
本稿では,畳み込みニューラルネットワーク(CNN)を用いた新しいスタイル伝達手法の概要を概説する。
論文 参考訳(メタデータ) (2023-10-27T16:21:17Z) - InfoStyler: Disentanglement Information Bottleneck for Artistic Style
Transfer [22.29381866838179]
アートスタイルの転送は、アートワークのスタイルを、オリジナル全体のコンテンツを維持しながら写真に転送することを目的としている。
本稿では,コンテンツとスタイル表現の両面において,最小限の情報を取得するために,InfoStylerという新しい情報分離手法を提案する。
論文 参考訳(メタデータ) (2023-07-30T13:38:56Z) - ALADIN-NST: Self-supervised disentangled representation learning of
artistic style through Neural Style Transfer [60.6863849241972]
我々は、画像に描かれた意味的内容から、より強く絡み合った視覚芸術スタイルの表現を学習する。
スタイルと内容の絡み合いに強く対処することで、スタイル固有のメトリクスが大きく向上することを示します。
論文 参考訳(メタデータ) (2023-04-12T10:33:18Z) - Edge Enhanced Image Style Transfer via Transformers [6.666912981102909]
任意のイメージスタイルの転送が ますます注目を集めています
コンテンツの詳細とスタイル機能のトレードオフを同時に維持することは困難です。
画像スタイルの転送とエッジロスのための新しい変換器ベースのSTTを提案する。
論文 参考訳(メタデータ) (2023-01-02T10:39:31Z) - DiffStyler: Controllable Dual Diffusion for Text-Driven Image
Stylization [66.42741426640633]
DiffStylerは、拡散された結果の内容とスタイルのバランスを制御するための二重拡散処理アーキテクチャである。
本稿では、逆復調処理をベースとしたコンテンツ画像に基づく学習可能なノイズを提案し、そのスタイリング結果により、コンテンツ画像の構造情報をよりよく保存する。
論文 参考訳(メタデータ) (2022-11-19T12:30:44Z) - Arbitrary Style Transfer with Structure Enhancement by Combining the
Global and Local Loss [51.309905690367835]
本稿では,グローバルな損失と局所的な損失を組み合わせ,構造拡張を伴う任意のスタイル転送手法を提案する。
実験結果から,視覚効果の優れた高画質画像が生成できることが示唆された。
論文 参考訳(メタデータ) (2022-07-23T07:02:57Z) - Arbitrary Style Transfer via Multi-Adaptation Network [109.6765099732799]
所望のスタイル転送は、内容画像と参照されたスタイル絵が与えられた場合、そのスタイル絵の色調と鮮やかなストロークパターンで内容画像を描画する。
新たな不整合損失関数により,本ネットワークは,様々な入力画像に適応する主文パターンと正確なコンテンツ構造を抽出できる。
論文 参考訳(メタデータ) (2020-05-27T08:00:22Z) - Parameter-Free Style Projection for Arbitrary Style Transfer [64.06126075460722]
本稿では,パラメータフリー,高速,効果的なコンテンツスタイル変換のための特徴レベル変換手法であるStyle Projectionを提案する。
本稿では、任意の画像スタイルの転送にスタイル投影を利用するリアルタイムフィードフォワードモデルを提案する。
論文 参考訳(メタデータ) (2020-03-17T13:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。