論文の概要: Modeling Artistic Workflows for Image Generation and Editing
- arxiv url: http://arxiv.org/abs/2007.07238v1
- Date: Tue, 14 Jul 2020 17:54:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 14:58:58.349775
- Title: Modeling Artistic Workflows for Image Generation and Editing
- Title(参考訳): 画像生成と編集のためのアートワークフローのモデリング
- Authors: Hung-Yu Tseng, Matthew Fisher, Jingwan Lu, Yijun Li, Vladimir Kim,
Ming-Hsuan Yang
- Abstract要約: 与えられた芸術的ワークフローに従う生成モデルを提案する。
既存の芸術作品の多段画像編集だけでなく、多段画像生成も可能である。
- 参考スコア(独自算出の注目度): 83.43047077223947
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: People often create art by following an artistic workflow involving multiple
stages that inform the overall design. If an artist wishes to modify an earlier
decision, significant work may be required to propagate this new decision
forward to the final artwork. Motivated by the above observations, we propose a
generative model that follows a given artistic workflow, enabling both
multi-stage image generation as well as multi-stage image editing of an
existing piece of art. Furthermore, for the editing scenario, we introduce an
optimization process along with learning-based regularization to ensure the
edited image produced by the model closely aligns with the originally provided
image. Qualitative and quantitative results on three different artistic
datasets demonstrate the effectiveness of the proposed framework on both image
generation and editing tasks.
- Abstract(参考訳): 人々は、デザイン全体を伝える複数のステージを含む芸術的なワークフローに従うことで、しばしばアートを作成する。
アーティストが初期の決定を修正したい場合、この新たな決定を最終的な作品に広めるために重要な作業が必要となる。
上記の観察に動機づけられ,既存の芸術作品の多段階画像生成と多段階画像編集の両方を可能にする,所定の芸術的ワークフローに従う生成モデルを提案する。
さらに, 編集シナリオでは, モデルが生成した編集画像が元の画像と密接に一致するように, 学習に基づく正規化とともに最適化プロセスを導入する。
3つの異なる芸術的データセットの質的および定量的な結果は、画像生成と編集の両方におけるフレームワークの有効性を示す。
関連論文リスト
- Pix2Pix-OnTheFly: Leveraging LLMs for Instruction-Guided Image Editing [0.47355466227925036]
本研究では,命令誘導画像編集をオンザフライで行うための準備不要な手法を提案する。
本手法は,MAGICBRUSHデータセットで評価した場合に,この課題に対する技術モデルの有効性と競争性を示すものである。
論文 参考訳(メタデータ) (2024-03-12T18:12:50Z) - Real-time 3D-aware Portrait Editing from a Single Image [114.97405659269198]
本研究は,与えられたプロンプトに従って顔画像を効率よく編集できる3DPEを提示する。
ライトウェイトモジュールは、3Dポートレートジェネレータとテキスト・ツー・イメージ・モデルから抽出され、顔形状とオープン語彙編集能力の事前知識を提供する。
コード、モデル、インターフェースは、将来の研究を促進するために公開されます。
論文 参考訳(メタデータ) (2024-02-21T18:36:26Z) - CreativeSynth: Creative Blending and Synthesis of Visual Arts based on
Multimodal Diffusion [74.44273919041912]
大規模なテキスト・画像生成モデルは印象的な進歩を遂げ、高品質な画像を合成する能力を示している。
しかし、これらのモデルを芸術的な画像編集に適用することは、2つの重要な課題を提起する。
我々は,マルチモーダル入力をコーディネートする拡散モデルに基づく,革新的な統一フレームワークCreative Synthを構築した。
論文 参考訳(メタデータ) (2024-01-25T10:42:09Z) - Integrating View Conditions for Image Synthesis [26.499114429956506]
本稿では、視点情報を統合して画像編集タスクの制御を強化する先駆的なフレームワークを提案する。
既存のオブジェクト編集手法を探索することにより、画像編集法で満たすべき3つの必須基準、一貫性、可制御性、調和を抽出する。
論文 参考訳(メタデータ) (2023-10-24T16:55:07Z) - ReGeneration Learning of Diffusion Models with Rich Prompts for
Zero-Shot Image Translation [8.803251014279502]
大規模なテキスト・ツー・イメージモデルは、多彩で高忠実な画像を合成する素晴らしい能力を示した。
現在のモデルでは、編集プロセス中に元の画像の内容に大きな変更を加えることができる。
画像と画像の拡散モデル(ReDiffuser)における再生学習を提案する。
論文 参考訳(メタデータ) (2023-05-08T12:08:12Z) - Taming Encoder for Zero Fine-tuning Image Customization with
Text-to-Image Diffusion Models [55.04969603431266]
本稿では,ユーザが指定したカスタマイズされたオブジェクトの画像を生成する手法を提案する。
この手法は、従来のアプローチで要求される長大な最適化をバイパスする一般的なフレームワークに基づいている。
提案手法は, 出力品質, 外観の多様性, 被写体忠実度を考慮した画像合成が可能であることを示す。
論文 参考訳(メタデータ) (2023-04-05T17:59:32Z) - End-to-End Visual Editing with a Generatively Pre-Trained Artist [78.5922562526874]
対象画像編集の問題として、ソース画像内の領域と、所望の変更を指定したドライバ画像とをブレンドすることを考える。
対象領域のオフザシェルフ画像を拡大することにより編集をシミュレートする自己教師型アプローチを提案する。
我々は、モデルアーキテクチャに他の変更を加えることなく、拡張プロセスの直感的な制御によって異なるブレンディング効果が学習できることを示します。
論文 参考訳(メタデータ) (2022-05-03T17:59:30Z) - SpaceEdit: Learning a Unified Editing Space for Open-Domain Image
Editing [94.31103255204933]
オープンドメイン画像の色やトーン調整に着目したオープンドメイン画像編集のための統一モデルを提案する。
我々のモデルは、よりセマンティックで直感的で操作が容易な統合編集空間を学習する。
画像ペアを学習した編集空間の潜在コードに変換することで、下流編集タスクに我々のモデルを活用できることが示される。
論文 参考訳(メタデータ) (2021-11-30T23:53:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。