論文の概要: A Framework for Portrait Stylization with Skin-Tone Awareness and Nudity Identification
- arxiv url: http://arxiv.org/abs/2403.14264v1
- Date: Thu, 21 Mar 2024 09:59:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-22 14:48:00.555432
- Title: A Framework for Portrait Stylization with Skin-Tone Awareness and Nudity Identification
- Title(参考訳): Skin-Tone Awareness とNudity Identification を用いたポートレートスティル化のためのフレームワーク
- Authors: Seungkwon Kim, Sangyeon Kim, Seung-Hun Nam,
- Abstract要約: 本研究では,Nudity Content Identification Module (NCIM)とSkin-tone-Aware portrait stylization Module (STAPSM)を組み込んだポートレートスタイリングフレームワークを提案する。
実験では、NCIMは明示的な内容フィルタリングの強化に優れた性能を示し、STAPSMは様々な皮膚のトーンを正確に表現した。
提案するフレームワークは,実世界のアプリケーションにおける重要な要件を効果的に満たしている。
- 参考スコア(独自算出の注目度): 5.420583859451706
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Portrait stylization is a challenging task involving the transformation of an input portrait image into a specific style while preserving its inherent characteristics. The recent introduction of Stable Diffusion (SD) has significantly improved the quality of outcomes in this field. However, a practical stylization framework that can effectively filter harmful input content and preserve the distinct characteristics of an input, such as skin-tone, while maintaining the quality of stylization remains lacking. These challenges have hindered the wide deployment of such a framework. To address these issues, this study proposes a portrait stylization framework that incorporates a nudity content identification module (NCIM) and a skin-tone-aware portrait stylization module (STAPSM). In experiments, NCIM showed good performance in enhancing explicit content filtering, and STAPSM accurately represented a diverse range of skin tones. Our proposed framework has been successfully deployed in practice, and it has effectively satisfied critical requirements of real-world applications.
- Abstract(参考訳): ポートレート・スタイリングは、入力されたポートレートイメージを特定のスタイルに変換し、固有の特性を保ちながら、困難な作業である。
最近の安定拡散(SD)の導入により、この分野における成果の質が大幅に向上した。
しかし、有害な入力内容を効果的にフィルタリングし、スキントーンなどの入力の特徴を保ちつつ、スタイリゼーションの質を保った実践的なスタイリゼーションフレームワークは依然として欠落している。
これらの課題は、このようなフレームワークの展開を妨げている。
そこで本研究では,Nudity Content Identification Module (NCIM)とSkin-tone-Aware portrait stylization Module (STAPSM)を組み込んだポートレートスタイリングフレームワークを提案する。
実験では、NCIMは明示的な内容フィルタリングの強化に優れた性能を示し、STAPSMは様々な皮膚のトーンを正確に表現した。
提案するフレームワークは,実世界のアプリケーションにおける重要な要件を効果的に満たしている。
関連論文リスト
- MagicStyle: Portrait Stylization Based on Reference Image [0.562479170374811]
そこで我々は,MagicStyleと呼ばれるポートレートに特化して,拡散モデルに基づく参照画像スタイリング手法を提案する。
Cフェーズは、DDIMインバージョンをコンテンツイメージとスタイルイメージとで別々に実行し、インバージョンプロセス中に両方の画像の自己アテンションクエリ、キーと値の特徴を格納するリバースデノナイズ処理を含む。
FFFフェーズは、事前記憶された特徴クエリ、キー、値からのテクスチャと色情報を、よく設計された特徴融合注意(FFA)に基づいて拡散生成プロセスに統合する。
論文 参考訳(メタデータ) (2024-09-12T15:51:09Z) - ZePo: Zero-Shot Portrait Stylization with Faster Sampling [61.14140480095604]
本稿では,4つのサンプリングステップでコンテンツとスタイルの融合を実現する拡散モデルに基づく,インバージョンフリーなポートレートスタイリングフレームワークを提案する。
本稿では,一貫性機能における冗長な特徴をマージする機能統合戦略を提案し,注意制御の計算負荷を低減させる。
論文 参考訳(メタデータ) (2024-08-10T08:53:41Z) - Joint Quality Assessment and Example-Guided Image Processing by Disentangling Picture Appearance from Content [30.939589712281684]
ディープラーニングは、スタイル/ドメイン転送、強化/復元、視覚的品質評価といった低レベルの画像処理タスクに影響を与えている。
我々はこの観察を利用して、入力をコンテンツや外観特徴に分解する新しい非絡み合い表現学習法を開発した。
本研究では,DisQUEが品質予測タスクや歪みタイプにまたがって精度を達成できることを示す。
論文 参考訳(メタデータ) (2024-04-20T23:02:57Z) - DiffFAE: Advancing High-fidelity One-shot Facial Appearance Editing with Space-sensitive Customization and Semantic Preservation [84.0586749616249]
本稿では,高忠実度顔画像編集に適した1段階かつ高効率な拡散ベースフレームワークDiffFAEを提案する。
高忠実度クエリ属性転送には、空間感性物理カスタマイズ(SPC)を採用し、忠実度と一般化能力を保証している。
ソース属性を保存するために、Regional-responsive Semantic Composition (RSC)を導入する。
このモジュールは、切り離されたソースを無視する特徴を学習するためにガイドされ、髪、服、背景などの非顔的属性からアーティファクトを保存し緩和する。
論文 参考訳(メタデータ) (2024-03-26T12:53:10Z) - Time-Efficient and Identity-Consistent Virtual Try-On Using A Variant of Altered Diffusion Models [4.038493506169702]
本研究は, 複雑なテクスチャの詳細と, 対象者と衣服の特徴を, 様々なシナリオで保存することの課題を強調する。
様々な既存アプローチが検討され、制限と未解決の側面を強調している。
次に,仮想試行中にテクスチャのテクスチャ保存とユーザアイデンティティ保持に対処する,新しい拡散型ソリューションを提案する。
論文 参考訳(メタデータ) (2024-03-12T07:15:29Z) - BrushNet: A Plug-and-Play Image Inpainting Model with Decomposed
Dual-Branch Diffusion [61.90969199199739]
BrushNetは、ピクセルレベルのマスク付きイメージ機能を事前訓練されたDMに埋め込むために設計された、新しいプラグアンドプレイデュアルブランチモデルである。
BrushNetは、画像品質、マスク領域保存、テキストコヒーレンスを含む7つの主要な指標で、既存のモデルよりも優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-03-11T17:59:31Z) - StyleRetoucher: Generalized Portrait Image Retouching with GAN Priors [30.000584682643183]
StyleRetoucherは、新しい自動ポートレートイメージリタッチフレームワークである。
本手法は,顔の詳細を保存しながら,入力像の皮膚状態を改善する。
そこで本研究では,皮膚のブレンディッシュを効果的に識別し,除去するための新規なブレンディッシュ認識機能選択機構を提案する。
論文 参考訳(メタデータ) (2023-12-22T02:32:19Z) - PortraitBooth: A Versatile Portrait Model for Fast Identity-preserved
Personalization [92.90392834835751]
PortraitBoothは高効率、堅牢なID保存、表現編集可能な画像生成のために設計されている。
PortraitBoothは計算オーバーヘッドを排除し、アイデンティティの歪みを軽減する。
生成した画像の多様な表情に対する感情認識のクロスアテンション制御が組み込まれている。
論文 参考訳(メタデータ) (2023-12-11T13:03:29Z) - Personalized Face Inpainting with Diffusion Models by Parallel Visual
Attention [55.33017432880408]
本稿では,パラレル視覚注意(PVA, Parallel Visual Attention, PVA)と拡散モデルとの併用による塗装結果の改善を提案する。
我々はCelebAHQ-IDIで注目モジュールとIDエンコーダをトレーニングする。
実験により, PVAは顔の塗り絵と顔の塗り絵の両面において, 言語指導タスクと相容れない同一性を持つことが示された。
論文 参考訳(メタデータ) (2023-12-06T15:39:03Z) - Parameter-Free Style Projection for Arbitrary Style Transfer [64.06126075460722]
本稿では,パラメータフリー,高速,効果的なコンテンツスタイル変換のための特徴レベル変換手法であるStyle Projectionを提案する。
本稿では、任意の画像スタイルの転送にスタイル投影を利用するリアルタイムフィードフォワードモデルを提案する。
論文 参考訳(メタデータ) (2020-03-17T13:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。