論文の概要: DIFF-NST: Diffusion Interleaving For deFormable Neural Style Transfer
- arxiv url: http://arxiv.org/abs/2307.04157v2
- Date: Tue, 11 Jul 2023 09:28:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-12 17:41:08.882869
- Title: DIFF-NST: Diffusion Interleaving For deFormable Neural Style Transfer
- Title(参考訳): DIFF-NST: 変形可能な神経伝達のための拡散インターリーブ
- Authors: Dan Ruta, Gemma Canet Tarr\'es, Andrew Gilbert, Eli Shechtman,
Nicholas Kolkin, John Collomosse
- Abstract要約: 変形可能なスタイル転送を実現しつつ,新しいモデルのクラスを用いてスタイル転送を行う。
これらのモデルの先行モデルを活用することで、推論時に新たな芸術的コントロールが公開できることを示す。
- 参考スコア(独自算出の注目度): 27.39248034592382
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural Style Transfer (NST) is the field of study applying neural techniques
to modify the artistic appearance of a content image to match the style of a
reference style image. Traditionally, NST methods have focused on texture-based
image edits, affecting mostly low level information and keeping most image
structures the same. However, style-based deformation of the content is
desirable for some styles, especially in cases where the style is abstract or
the primary concept of the style is in its deformed rendition of some content.
With the recent introduction of diffusion models, such as Stable Diffusion, we
can access far more powerful image generation techniques, enabling new
possibilities. In our work, we propose using this new class of models to
perform style transfer while enabling deformable style transfer, an elusive
capability in previous models. We show how leveraging the priors of these
models can expose new artistic controls at inference time, and we document our
findings in exploring this new direction for the field of style transfer.
- Abstract(参考訳): ニューラルスタイル転送(Neural Style Transfer, NST)は、コンテンツイメージの芸術的外観を、参照スタイルイメージのスタイルに合わせるために、ニューラルテクニックを適用した研究分野である。
伝統的に、NST法はテクスチャベースの画像編集に重点を置いており、ほとんどの低レベル情報に影響を与え、ほとんどの画像構造を同じに保っている。
しかし、特にそのスタイルが抽象的である場合や、スタイルの主要な概念が、一部のコンテンツの変形したレンドレーションにある場合など、一部のスタイルには、スタイルに基づく変形が望ましい。
安定拡散など最近の拡散モデルの導入により、より強力な画像生成技術にアクセスでき、新しい可能性を可能にしている。
本研究では,従来のモデルにおいて,変形可能なスタイル転送を実現しつつ,スタイル転送を行うために,この新しいモデルのクラスを提案する。
我々は,これらのモデルの先行的活用が推論時に新たな芸術的制御を顕在化できることを示すとともに,この新たなスタイル伝達の方向性を探究する上での知見を文書化する。
関連論文リスト
- MuseumMaker: Continual Style Customization without Catastrophic Forgetting [50.12727620780213]
本研究では,一組のカスタマイズスタイルを終末的に追従することで,画像の合成を可能にする方法であるMuseumMakerを提案する。
新しいカスタマイズスタイルに直面すると、新しい画像生成のためのトレーニングデータのスタイルを抽出し学習するスタイル蒸留損失モジュールを開発する。
これは、新しい訓練画像の内容による学習バイアスを最小限に抑え、少数ショット画像によって引き起こされる破滅的な過適合問題に対処することができる。
論文 参考訳(メタデータ) (2024-04-25T13:51:38Z) - Towards Highly Realistic Artistic Style Transfer via Stable Diffusion with Step-aware and Layer-aware Prompt [12.27693060663517]
芸術的スタイルの転送は、学習した芸術的スタイルを任意のコンテンツイメージに転送することを目的としており、芸術的なスタイル化されたイメージを生成する。
LSASTと呼ばれる,事前学習型拡散型アートスタイルトランスファー手法を提案する。
提案手法は,最先端の芸術的スタイル伝達法よりも,よりリアルな芸術的スタイル化画像を生成することができる。
論文 参考訳(メタデータ) (2024-04-17T15:28:53Z) - ControlStyle: Text-Driven Stylized Image Generation Using Diffusion
Priors [105.37795139586075]
そこで本研究では,テキスト駆動型スタイリング画像生成という,テキスト・イメージ・モデルをスタイリングするための新しいタスクを提案する。
トレーニング可能な変調ネットワークで事前訓練されたテキスト・ツー・イメージモデルをアップグレードすることで,新しい拡散モデル(ControlStyle)を提案する。
実験では、より視覚的で芸術的な結果を生み出すためのコントロールスタイルの有効性が示されています。
論文 参考訳(メタデータ) (2023-11-09T15:50:52Z) - Generative AI Model for Artistic Style Transfer Using Convolutional
Neural Networks [0.0]
芸術的なスタイルの転送は、ある画像の内容を別の芸術的なスタイルに融合させ、ユニークな視覚的な構成を作り出すことである。
本稿では,畳み込みニューラルネットワーク(CNN)を用いた新しいスタイル伝達手法の概要を概説する。
論文 参考訳(メタデータ) (2023-10-27T16:21:17Z) - NeAT: Neural Artistic Tracing for Beautiful Style Transfer [29.38791171225834]
スタイル転送は、第2のターゲット画像の芸術的スタイルでソース画像の意味内容を再現するタスクである。
我々は、新しい最先端のフィードフォワードスタイル転送方式NeATを提案する。
我々はBBST-4Mを用いて、様々なスタイルにわたるNeATの一般化を改善し、測定する。
論文 参考訳(メタデータ) (2023-04-11T11:08:13Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - Neural Artistic Style Transfer with Conditional Adversaria [0.0]
神経芸術スタイル変換モデルは、有名な画像のスタイルを追加することで、単純な画像の外観を変更することができる。
本稿では,画像独立型ニューラルスタイル転送モデルに向けた2つの手法を提案する。
我々の新しい貢献は、モデルアーキテクチャによる循環的一貫性を保証する一方向GANモデルである。
論文 参考訳(メタデータ) (2023-02-08T04:34:20Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - Pastiche Master: Exemplar-Based High-Resolution Portrait Style Transfer [103.54337984566877]
StyleGANの最近の研究は、限られたデータを用いたトランスファーラーニングによる芸術的肖像画生成に高い性能を示している。
本稿では,オリジナルフェイスドメインと拡張アートポートレートドメインの両スタイルを柔軟に制御できる新しいDualStyleGANを提案する。
高品質なポートレートスタイル転送とフレキシブルなスタイル制御において、DualStyleGANが最先端の手法よりも優れていることを示す実験である。
論文 参考訳(メタデータ) (2022-03-24T17:57:11Z) - Geometric Style Transfer [74.58782301514053]
幾何学的スタイルの伝達をサポートするニューラルアーキテクチャを導入する。
新しいアーキテクチャはテクスチャスタイルを転送するネットワークに先立って実行される。
ユーザーはコンテント/スタイルのペアを一般的なように入力したり、コンテント/テクスチャスタイル/幾何学スタイルのトリプルを入力できる。
論文 参考訳(メタデータ) (2020-07-10T16:33:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。