論文の概要: Multi-Attribute Guided Painting Generation
- arxiv url: http://arxiv.org/abs/2002.11261v1
- Date: Wed, 26 Feb 2020 02:22:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 15:09:31.532201
- Title: Multi-Attribute Guided Painting Generation
- Title(参考訳): 多属性ガイドペイント生成
- Authors: Minxuan Lin, Yingying Deng, Fan Tang, Weiming Dong, Changsheng Xu
- Abstract要約: 制御可能な絵画生成は、イメージスタイリゼーションにおいて重要な役割を担っている。
本稿では,絵画の複数の属性を取り入れた新しい枠組みを提案し,そのスタイル化結果を制御した。
- 参考スコア(独自算出の注目度): 73.75835513261951
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Controllable painting generation plays a pivotal role in image stylization.
Currently, the control way of style transfer is subject to exemplar-based
reference or a random one-hot vector guidance. Few works focus on decoupling
the intrinsic properties of painting as control conditions, e.g., artist, genre
and period. Under this circumstance, we propose a novel framework adopting
multiple attributes from the painting to control the stylized results. An
asymmetrical cycle structure is equipped to preserve the fidelity, associating
with style preserving and attribute regression loss to keep the unique
distinction of colors and textures between domains. Several qualitative and
quantitative results demonstrate the effect of the combinations of multiple
attributes and achieve satisfactory performance.
- Abstract(参考訳): 制御可能な絵画生成は、画像スタイリングにおいて重要な役割を果たす。
現在、スタイル転送の制御方法は、模範的な参照やランダムなワンホットベクトル誘導の対象となっている。
絵画の本質的な性質を、例えば芸術家、ジャンル、時代などの制御条件として分離することに焦点を当てる作品はほとんどない。
この状況下では,絵画から複数の属性を取り入れ,スタイリゼーション結果を制御する新しい枠組みを提案する。
非対称サイクル構造は、色とテクスチャをドメイン間で一意に区別し続けるために、スタイル保存および属性回帰損失と関連づけて忠実性を保つために備えられている。
いくつかの定性的および定量的な結果は、複数の属性の組み合わせの効果を示し、良好な性能を達成する。
関連論文リスト
- ZePo: Zero-Shot Portrait Stylization with Faster Sampling [61.14140480095604]
本稿では,4つのサンプリングステップでコンテンツとスタイルの融合を実現する拡散モデルに基づく,インバージョンフリーなポートレートスタイリングフレームワークを提案する。
本稿では,一貫性機能における冗長な特徴をマージする機能統合戦略を提案し,注意制御の計算負荷を低減させる。
論文 参考訳(メタデータ) (2024-08-10T08:53:41Z) - InstantStyle: Free Lunch towards Style-Preserving in Text-to-Image Generation [5.364489068722223]
スタイルの概念は本質的に過小評価されており、色、材料、雰囲気、デザイン、構造といった様々な要素を含んでいる。
インバージョンベースの手法はスタイルの劣化を招きやすいため、細かな細部が失われることが多い。
アダプタベースのアプローチでは、スタイル強度とテキストの制御性のバランスをとるために、参照画像ごとに微妙な重み調整が必要となることが多い。
論文 参考訳(メタデータ) (2024-04-03T13:34:09Z) - BrushNet: A Plug-and-Play Image Inpainting Model with Decomposed
Dual-Branch Diffusion [61.90969199199739]
BrushNetは、ピクセルレベルのマスク付きイメージ機能を事前訓練されたDMに埋め込むために設計された、新しいプラグアンドプレイデュアルブランチモデルである。
BrushNetは、画像品質、マスク領域保存、テキストコヒーレンスを含む7つの主要な指標で、既存のモデルよりも優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-03-11T17:59:31Z) - Stroke-based Neural Painting and Stylization with Dynamically Predicted
Painting Region [66.75826549444909]
ストロークベースのレンダリングは、ストロークのセットで画像を再現することを目的としている。
本研究では,現在のキャンバスに基づいて絵画領域を予測する合成ニューラルネットワークを提案する。
我々は、新しい微分可能な距離変換損失を伴って、ストロークベースのスタイル転送に拡張する。
論文 参考訳(メタデータ) (2023-09-07T06:27:39Z) - QuantArt: Quantizing Image Style Transfer Towards High Visual Fidelity [94.5479418998225]
視覚的忠実度の高いスタイリングのためのQuantArtと呼ばれる新しいスタイル転送フレームワークを提案する。
本フレームワークは,既存のスタイル転送方式と比較して,視覚的忠実度を著しく向上させる。
論文 参考訳(メタデータ) (2022-12-20T17:09:53Z) - Everything is There in Latent Space: Attribute Editing and Attribute
Style Manipulation by StyleGAN Latent Space Exploration [39.18239951479647]
RAAME (Few-shot Latent-based Attribute Manipulation and Editing) について紹介する。
FLAMEは、遅延空間操作によって高度に制御された画像編集を行うためのフレームワークである。
様々な属性スタイルをアンタングル的に生成する。
論文 参考訳(メタデータ) (2022-07-20T12:40:32Z) - Anisotropic Stroke Control for Multiple Artists Style Transfer [36.92721585146738]
Stroke Control Multi-Artist Style Transferフレームワークを開発した。
異方性ストロークモジュール(ASM)は、様々なスタイルで適応的なセマンティック一貫性を持つネットワークを提供する。
単一スケールの条件付き識別器とは対照的に,識別器はマルチスケールのテクスチャの手がかりを捉えることができる。
論文 参考訳(メタデータ) (2020-10-16T05:32:26Z) - Learning to Compose Hypercolumns for Visual Correspondence [57.93635236871264]
本稿では,画像に条件付けされた関連レイヤを活用することで,動的に効率的な特徴を構成する視覚対応手法を提案する。
提案手法はダイナミックハイパーピクセルフロー(Dynamic Hyperpixel Flow)と呼ばれ,深層畳み込みニューラルネットワークから少数の関連層を選択することにより,高速にハイパーカラム機能を構成することを学習する。
論文 参考訳(メタデータ) (2020-07-21T04:03:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。