論文の概要: CoralStyleCLIP: Co-optimized Region and Layer Selection for Image
Editing
- arxiv url: http://arxiv.org/abs/2303.05031v1
- Date: Thu, 9 Mar 2023 04:35:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-10 16:13:29.942103
- Title: CoralStyleCLIP: Co-optimized Region and Layer Selection for Image
Editing
- Title(参考訳): CoralStyleCLIP:画像編集のための共最適化領域と層選択
- Authors: Ambareesh Revanur, Debraj Basu, Shradha Agrawal, Dhwanit Agarwal,
Deepak Pai
- Abstract要約: 高忠実度編集のための多層注意誘導混合戦略をStyleGAN2の特徴空間に組み込んだCoralStyleCLIPを提案する。
以上の結果から,CoralStyleCLIPは使いやすさを保ちながら高品質な編集が可能であることが示唆された。
- 参考スコア(独自算出の注目度): 5.1973075342632535
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Edit fidelity is a significant issue in open-world controllable generative
image editing. Recently, CLIP-based approaches have traded off simplicity to
alleviate these problems by introducing spatial attention in a handpicked layer
of a StyleGAN. In this paper, we propose CoralStyleCLIP, which incorporates a
multi-layer attention-guided blending strategy in the feature space of
StyleGAN2 for obtaining high-fidelity edits. We propose multiple forms of our
co-optimized region and layer selection strategy to demonstrate the variation
of time complexity with the quality of edits over different architectural
intricacies while preserving simplicity. We conduct extensive experimental
analysis and benchmark our method against state-of-the-art CLIP-based methods.
Our findings suggest that CoralStyleCLIP results in high-quality edits while
preserving the ease of use.
- Abstract(参考訳): 編集忠実度は、オープンワールド制御可能な生成画像編集において重要な問題である。
近年、CLIPベースのアプローチは、StyleGANのハンズアップされた層に空間的注意を導入することで、これらの問題を緩和するためにシンプルさを欠いている。
本稿では,高忠実度編集のための多層注意誘導ブレンディング戦略をStyleGAN2の特徴空間に組み込んだCoralStyleCLIPを提案する。
複数形態の協調最適化領域と層選択戦略を提案し, 単純さを保ちながら, 異なるアーキテクチャの複雑さと編集品質の相違を実証する。
本手法は, 最新のクリップベース手法に対して, 広範囲な実験解析を行い, ベンチマークを行った。
以上の結果から,CoralStyleCLIPは使いやすさを保ちながら高品質な編集が可能であることが示唆された。
関連論文リスト
- MAG-Edit: Localized Image Editing in Complex Scenarios via Mask-Based
Attention-Adjusted Guidance [28.212908146852197]
我々は,複雑なシナリオにおける局所的な画像編集を可能にする,トレーニング不要な推論ステージ最適化手法であるMAG-Editを開発した。
特に、MAG-Editは2つのマスクベースのクロスアテンション制約を最大化することにより拡散モデルのノイズ潜時特性を最適化する。
論文 参考訳(メタデータ) (2023-12-18T17:55:44Z) - SARA: Controllable Makeup Transfer with Spatial Alignment and Region-Adaptive Normalization [67.90315365909244]
本稿では,空間アライメントと領域適応正規化法(SARA)を提案する。
提案手法は,大規模な空間的不整合を処理し,部分特異的かつ日陰制御可能なメイク転送を実現するための詳細なメイク転送結果を生成する。
実験の結果,SARA法は既存の手法よりも優れており,2つの公開データセット上での最先端性能を実現していることがわかった。
論文 参考訳(メタデータ) (2023-11-28T14:46:51Z) - CLIP-Guided StyleGAN Inversion for Text-Driven Real Image Editing [22.40686064568406]
提案するCLIPInverterは,複数属性の変更を効率よく,かつ確実に行うことのできる,テキスト駆動型画像編集手法である。
本手法は,人間の顔,猫,鳥など,さまざまな領域における操作精度とフォトリアリズムにおいて,競合するアプローチよりも優れる。
論文 参考訳(メタデータ) (2023-07-17T11:29:48Z) - LayerDiffusion: Layered Controlled Image Editing with Diffusion Models [5.58892860792971]
LayerDiffusionはセマンティックベースの階層制御画像編集手法である。
我々は、大規模テキスト・画像モデルを活用し、階層化された制御最適化戦略を採用する。
実験により,高コヒーレント画像の生成における本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-05-30T01:26:41Z) - Adaptive Context Selection for Polyp Segmentation [99.9959901908053]
本稿では,ローカルコンテキストアテンション(LCA)モジュール,グローバルコンテキストモジュール(GCM)モジュール,適応選択モジュール(ASM)モジュールで構成される適応コンテキスト選択に基づくエンコーダデコーダフレームワークを提案する。
LCAモジュールは、エンコーダ層からデコーダ層へローカルなコンテキスト機能を提供する。
GCMは、グローバルなコンテキストの特徴をさらに探求し、デコーダ層に送信することを目的としている。ASMは、チャンネルワイドアテンションを通じて、コンテキスト特徴の適応的選択と集約に使用される。
論文 参考訳(メタデータ) (2023-01-12T04:06:44Z) - Bridging CLIP and StyleGAN through Latent Alignment for Image Editing [33.86698044813281]
我々はCLIPとStyleGANを橋渡し、推論時最適化のない多様な操作方向マイニングを実現する。
このマッピング方式により、GANインバージョン、テキスト・ツー・イメージ生成、テキスト駆動画像操作を実現することができる。
論文 参考訳(メタデータ) (2022-10-10T09:17:35Z) - Spatially-Adaptive Multilayer Selection for GAN Inversion and Editing [57.46189236379433]
本稿では,StyleGAN2 など,GAN の潜在空間における複雑な画像を反転・編集する手法を提案する。
我々のキーとなる考え方は、画像の難易度に逆過程を空間的に適応させることで、レイヤーの集合による逆転を探索することである。
論文 参考訳(メタデータ) (2022-06-16T17:57:49Z) - One-Shot Adaptation of GAN in Just One CLIP [51.188396199083336]
本稿では,CLIP空間を統一した単一ショットGAN適応方式を提案する。
具体的には、CLIP誘導潜在最適化を用いて、ソースジェネレータ内の参照画像検索という2段階のトレーニング戦略を採用する。
対象のテクスチャで多様な出力を生成し,質的かつ定量的にベースラインモデルより優れていることを示す。
論文 参考訳(メタデータ) (2022-03-17T13:03:06Z) - EditGAN: High-Precision Semantic Image Editing [120.49401527771067]
EditGANは高品質で高精度なセマンティック画像編集のための新しい手法である。
EditGANは前例のない細部と自由度で画像を操作可能であることを示す。
また、複数の編集を組み合わせることも簡単で、EditGANのトレーニングデータ以外の編集も可能になります。
論文 参考訳(メタデータ) (2021-11-04T22:36:33Z) - Style Intervention: How to Achieve Spatial Disentanglement with
Style-based Generators? [100.60938767993088]
任意の入力画像に適応し、フレキシブルな目的の下で自然な翻訳効果をレンダリングできる軽量な最適化アルゴリズムを提案する。
フォトリアリズムと一貫性の両方を必要とする高解像度画像の顔属性編集において,提案するフレームワークの性能を検証する。
論文 参考訳(メタデータ) (2020-11-19T07:37:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。