論文の概要: One-Shot Structure-Aware Stylized Image Synthesis
- arxiv url: http://arxiv.org/abs/2402.17275v1
- Date: Tue, 27 Feb 2024 07:42:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 17:22:45.849899
- Title: One-Shot Structure-Aware Stylized Image Synthesis
- Title(参考訳): 1ショット構造を考慮したスティル化画像合成
- Authors: Hansam Cho, Jonghyun Lee, Seunggyu Chang, Yonghyun Jeong
- Abstract要約: OSASISは構造保存に堅牢な新しい一発スタイリング手法である。
我々は、OSASISが画像の構造から意味を効果的に切り離し、与えられた入力に実装されたコンテンツやスタイルのレベルを制御することができることを示す。
以上の結果から,OSASISは他のスタイリング手法,特にトレーニング中にほとんど遭遇しなかった入力画像よりも優れていた。
- 参考スコア(独自算出の注目度): 8.104151304193215
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While GAN-based models have been successful in image stylization tasks, they
often struggle with structure preservation while stylizing a wide range of
input images. Recently, diffusion models have been adopted for image
stylization but still lack the capability to maintain the original quality of
input images. Building on this, we propose OSASIS: a novel one-shot stylization
method that is robust in structure preservation. We show that OSASIS is able to
effectively disentangle the semantics from the structure of an image, allowing
it to control the level of content and style implemented to a given input. We
apply OSASIS to various experimental settings, including stylization with
out-of-domain reference images and stylization with text-driven manipulation.
Results show that OSASIS outperforms other stylization methods, especially for
input images that were rarely encountered during training, providing a
promising solution to stylization via diffusion models.
- Abstract(参考訳): GANベースのモデルは画像のスタイリング作業で成功しているが、幅広い入力イメージをスタイリングしながら構造保存に苦慮することが多い。
近年,画像スタイリングには拡散モデルが採用されているが,入力画像の本来の品質を維持する能力は乏しい。
そこで本研究では,構造保存に頑健なワンショットスタイライゼーション手法であるosasisを提案する。
我々は、OSASISが画像の構造から意味を効果的に切り離し、与えられた入力に実装されたコンテンツやスタイルのレベルを制御することができることを示す。
ドメイン外参照画像のスタイライゼーションやテキスト操作によるスタイライゼーションなど,さまざまな実験的な設定にosasisを適用する。
その結果、オサシスは他のスタイライゼーション法よりも優れており、特にトレーニング中にほとんど見つからなかった入力画像に対して、拡散モデルによるスタイライゼーションに対する有望な解決策が得られた。
関連論文リスト
- Text-to-Image Synthesis for Any Artistic Styles: Advancements in Personalized Artistic Image Generation via Subdivision and Dual Binding [7.291687946822539]
テキストプロンプトから特定のスタイルの多様な画像を生成するために、Single-StyleForgeファインチューニングされたテキスト・ツー・イメージ拡散モデル。
我々は,Multi-StyleForgeと呼ばれる手法を用いて,スタイルの品質とテキスト画像のアライメントを改善する方法を提案する。
論文 参考訳(メタデータ) (2024-04-08T07:43:23Z) - HiCAST: Highly Customized Arbitrary Style Transfer with Adapter Enhanced
Diffusion Models [84.12784265734238]
Arbitrary Style Transfer (AST)の目標は、あるスタイル参照の芸術的特徴を所定の画像/ビデオに注入することである。
各種のセマンティックな手がかりに基づいてスタイリング結果を明示的にカスタマイズできるHiCASTを提案する。
新たな学習目標をビデオ拡散モデルトレーニングに活用し,フレーム間の時間的一貫性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-01-11T12:26:23Z) - Style Aligned Image Generation via Shared Attention [61.121465570763085]
本稿では,一連の生成画像間のスタイルアライメントを確立する技術であるStyleAlignedを紹介する。
拡散過程において、最小限の注意共有を生かして、T2Iモデル内の画像間のスタイル整合性を維持する。
本手法は,多種多様なスタイルやテキストのプロンプトにまたがって評価を行い,高品質で忠実であることを示す。
論文 参考訳(メタデータ) (2023-12-04T18:55:35Z) - ControlStyle: Text-Driven Stylized Image Generation Using Diffusion
Priors [105.37795139586075]
そこで本研究では,テキスト駆動型スタイリング画像生成という,テキスト・イメージ・モデルをスタイリングするための新しいタスクを提案する。
トレーニング可能な変調ネットワークで事前訓練されたテキスト・ツー・イメージモデルをアップグレードすることで,新しい拡散モデル(ControlStyle)を提案する。
実験では、より視覚的で芸術的な結果を生み出すためのコントロールスタイルの有効性が示されています。
論文 参考訳(メタデータ) (2023-11-09T15:50:52Z) - Pixel-Aware Stable Diffusion for Realistic Image Super-resolution and Personalized Stylization [23.723573179119228]
高速なリアルISRとパーソナライズされた画像スタイリングを実現するために,画素対応安定拡散(PASD)ネットワークを提案する。
ベース拡散モデルをスタイリングされたものに置き換えることによって、PASDはペアのトレーニングデータを収集することなく、多様なスタイリングされた画像を生成することができる。
論文 参考訳(メタデータ) (2023-08-28T10:15:57Z) - DiffStyler: Controllable Dual Diffusion for Text-Driven Image
Stylization [66.42741426640633]
DiffStylerは、拡散された結果の内容とスタイルのバランスを制御するための二重拡散処理アーキテクチャである。
本稿では、逆復調処理をベースとしたコンテンツ画像に基づく学習可能なノイズを提案し、そのスタイリング結果により、コンテンツ画像の構造情報をよりよく保存する。
論文 参考訳(メタデータ) (2022-11-19T12:30:44Z) - Adversarial Style Augmentation for Domain Generalized Urban-Scene
Segmentation [120.96012935286913]
そこで本研究では,学習中にハードなスタイリング画像を生成可能な,新たな対向型拡張手法を提案する。
2つの合成から実のセマンティックセグメンテーションベンチマークの実験により、AdvStyleは目に見えない実領域におけるモデル性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2022-07-11T14:01:25Z) - STALP: Style Transfer with Auxiliary Limited Pairing [36.23393954839379]
本稿では,1対のソース画像と,そのスタイリング画像を用いた画像の例ベーススタイリング手法を提案する。
本研究では,対象画像に対するリアルタイムな意味論的スタイル転送が可能な画像翻訳ネットワークの訓練方法を示す。
論文 参考訳(メタデータ) (2021-10-20T11:38:41Z) - UMFA: A photorealistic style transfer method based on U-Net and
multi-layer feature aggregation [0.0]
本稿では,フォトリアリスティックなイメージスタイリングの自然な効果を強調するために,フォトリアリスティックなスタイル転送ネットワークを提案する。
特に、高密度ブロックに基づくエンコーダとU-Netの対称構造を形成するデコーダとを連立して、効率的な特徴抽出と画像再構成を実現する。
論文 参考訳(メタデータ) (2021-08-13T08:06:29Z) - StyleMeUp: Towards Style-Agnostic Sketch-Based Image Retrieval [119.03470556503942]
クロスモーダルマッチング問題は通常、写真とスケッチのモダリティ間で共有されるセマンティックコンテンツを保存する共同埋め込み空間を学習することによって解決される。
効果的なモデルには、このスタイルの多様性を明確に説明する必要がある。
我々のモデルは、モデム間で共有されるセマンティックコンテンツだけでなく、目に見えないユーザースタイルにも適応できるので、モデルは真に不可知的です。
論文 参考訳(メタデータ) (2021-03-29T15:44:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。