論文の概要: Styleclone: Face Stylization with Diffusion Based Data Augmentation
- arxiv url: http://arxiv.org/abs/2508.17045v1
- Date: Sat, 23 Aug 2025 14:48:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.313989
- Title: Styleclone: Face Stylization with Diffusion Based Data Augmentation
- Title(参考訳): Styleclone: 拡散に基づくデータ拡張による顔のスティル化
- Authors: Neeraj Matiyali, Siddharth Srivastava, Gaurav Sharma,
- Abstract要約: StyleCloneは、画像から画像への翻訳ネットワークを訓練して、特定のスタイルで顔をスタイリングする方法である。
従来のスタイル画像と実顔画像の両方でガイドされた多様なスタイルサンプルを生成することにより、スタイルデータセットの多様性を著しく向上させる。
- 参考スコア(独自算出の注目度): 12.50170974080313
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present StyleClone, a method for training image-to-image translation networks to stylize faces in a specific style, even with limited style images. Our approach leverages textual inversion and diffusion-based guided image generation to augment small style datasets. By systematically generating diverse style samples guided by both the original style images and real face images, we significantly enhance the diversity of the style dataset. Using this augmented dataset, we train fast image-to-image translation networks that outperform diffusion-based methods in speed and quality. Experiments on multiple styles demonstrate that our method improves stylization quality, better preserves source image content, and significantly accelerates inference. Additionally, we provide a systematic evaluation of the augmentation techniques and their impact on stylization performance.
- Abstract(参考訳): StyleCloneは、限られたスタイルのイメージであっても、特定のスタイルで顔をスタイリングする画像と画像の翻訳ネットワークを訓練する手法である。
提案手法は,テキストの反転と拡散に基づくガイド画像生成を利用して,小さなスタイルのデータセットを増強する。
従来のスタイル画像と実顔画像の両方で案内される多様なスタイルサンプルを体系的に生成することにより、スタイルデータセットの多様性を著しく向上する。
このデータセットを用いて、高速な画像から画像への変換ネットワークを訓練し、拡散に基づく手法の速度と品質を上回ります。
複数のスタイルの実験により,本手法はスタイリング品質を向上し,ソース画像の保存性を向上し,推論を著しく高速化することが示された。
さらに,拡張手法の体系的評価とスタイリゼーション性能への影響について述べる。
関連論文リスト
- D2Styler: Advancing Arbitrary Style Transfer with Discrete Diffusion Methods [2.468658581089448]
D$2$Styler (Discrete Diffusion Styler) と呼ばれる新しいフレームワークを提案する。
本手法では,アダプティブインスタンス正規化(AdaIN)機能を逆拡散過程のコンテキストガイドとして用いる。
実験により、D$2$Stylerは高品質なスタイル変換画像を生成することが示された。
論文 参考訳(メタデータ) (2024-08-07T05:47:06Z) - Rethink Arbitrary Style Transfer with Transformer and Contrastive Learning [11.900404048019594]
本稿では,スタイリング画像の品質向上のための革新的手法を提案する。
まず、コンテンツとスタイルの特徴の整合性を改善する手法であるスタイル一貫性インスタンス正規化(SCIN)を提案する。
さらに,様々なスタイル間の関係を理解するために,インスタンスベースのコントラスト学習(ICL)アプローチを開発した。
論文 参考訳(メタデータ) (2024-04-21T08:52:22Z) - ControlStyle: Text-Driven Stylized Image Generation Using Diffusion
Priors [105.37795139586075]
そこで本研究では,テキスト駆動型スタイリング画像生成という,テキスト・イメージ・モデルをスタイリングするための新しいタスクを提案する。
トレーニング可能な変調ネットワークで事前訓練されたテキスト・ツー・イメージモデルをアップグレードすることで,新しい拡散モデル(ControlStyle)を提案する。
実験では、より視覚的で芸術的な結果を生み出すためのコントロールスタイルの有効性が示されています。
論文 参考訳(メタデータ) (2023-11-09T15:50:52Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - DiffStyler: Controllable Dual Diffusion for Text-Driven Image
Stylization [66.42741426640633]
DiffStylerは、拡散された結果の内容とスタイルのバランスを制御するための二重拡散処理アーキテクチャである。
本稿では、逆復調処理をベースとしたコンテンツ画像に基づく学習可能なノイズを提案し、そのスタイリング結果により、コンテンツ画像の構造情報をよりよく保存する。
論文 参考訳(メタデータ) (2022-11-19T12:30:44Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。