論文の概要: StyleSSP: Sampling StartPoint Enhancement for Training-free Diffusion-based Method for Style Transfer
- arxiv url: http://arxiv.org/abs/2501.11319v1
- Date: Mon, 20 Jan 2025 07:45:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:22:34.442227
- Title: StyleSSP: Sampling StartPoint Enhancement for Training-free Diffusion-based Method for Style Transfer
- Title(参考訳): StyleSSP: Smpling StartPoint Enhancement for Training-free Diffusion-based Method for Style Transfer (特集:情報ネットワーク)
- Authors: Ruojun Xu, Weijie Xi, Xiaodi Wang, Yongbo Mao, Zach Cheng,
- Abstract要約: 学習自由拡散に基づく手法は、スタイル伝達において顕著な成功を収めた。
しかし、トレーニング不要な手法は、オリジナルコンテンツのレイアウト変更やスタイルイメージからのコンテンツのリークに悩まされることが多い。
そこで我々は,スタイルイメージからオリジナルコンテンツのレイアウト変更やコンテンツのリークに対処するための,より良いスタートポイントの獲得を目的としたStyleSSPを提案する。
- 参考スコア(独自算出の注目度): 0.5740526382143176
- License:
- Abstract: Training-free diffusion-based methods have achieved remarkable success in style transfer, eliminating the need for extensive training or fine-tuning. However, due to the lack of targeted training for style information extraction and constraints on the content image layout, training-free methods often suffer from layout changes of original content and content leakage from style images. Through a series of experiments, we discovered that an effective startpoint in the sampling stage significantly enhances the style transfer process. Based on this discovery, we propose StyleSSP, which focuses on obtaining a better startpoint to address layout changes of original content and content leakage from style image. StyleSSP comprises two key components: (1) Frequency Manipulation: To improve content preservation, we reduce the low-frequency components of the DDIM latent, allowing the sampling stage to pay more attention to the layout of content images; and (2) Negative Guidance via Inversion: To mitigate the content leakage from style image, we employ negative guidance in the inversion stage to ensure that the startpoint of the sampling stage is distanced from the content of style image. Experiments show that StyleSSP surpasses previous training-free style transfer baselines, particularly in preserving original content and minimizing the content leakage from style image.
- Abstract(参考訳): 学習自由拡散に基づく手法は、広範囲なトレーニングや微調整の必要性を排除し、スタイル伝達において顕著な成功を収めた。
しかし, コンテンツ画像レイアウトの制約やスタイル情報抽出の訓練が不十分なため, トレーニング不要な手法では, オリジナルコンテンツのレイアウト変更やスタイル画像からのコンテンツリークに悩まされることが多い。
一連の実験により, サンプリング段階における効果的なスタートポイントは, スタイル伝達過程を著しく向上させることがわかった。
この発見に基づいて,オリジナルコンテンツのレイアウト変更とスタイル画像からのコンテンツのリークに対処する,より良いスタートポイントの獲得に焦点を当てたStyleSSPを提案する。
StyleSSP は,(1) 周波数操作: コンテンツ保存を改善するために, DDIM 潜水器の低周波成分を低減し, サンプリングステージがコンテンツ画像のレイアウトにより多くの注意を払っていくようにする; (2) 逆ガイダンス: スタイル画像からのコンテンツリークを軽減するために, インバージョン段階では負のガイダンスを用いて, サンプリングステージの開始点がスタイル画像の内容から距離を置いていることを保証する。
実験によると、StyleSSPはトレーニング不要のスタイル転送ベースラインを超えており、特にオリジナルコンテンツの保存とスタイルイメージからのコンテンツのリークを最小限に抑えている。
関連論文リスト
- DiffuseST: Unleashing the Capability of the Diffusion Model for Style Transfer [13.588643982359413]
スタイル転送は、スタイル画像の芸術的表現をコンテンツ画像の構造情報と融合させることを目的としている。
既存の方法は特定のネットワークを訓練したり、事前訓練されたモデルを使ってコンテンツやスタイルの特徴を学習する。
本稿では,テキスト埋め込みと空間的特徴を組み合わせた,新しい学習不要なスタイル伝達手法を提案する。
論文 参考訳(メタデータ) (2024-10-19T06:42:43Z) - ZePo: Zero-Shot Portrait Stylization with Faster Sampling [61.14140480095604]
本稿では,4つのサンプリングステップでコンテンツとスタイルの融合を実現する拡散モデルに基づく,インバージョンフリーなポートレートスタイリングフレームワークを提案する。
本稿では,一貫性機能における冗長な特徴をマージする機能統合戦略を提案し,注意制御の計算負荷を低減させる。
論文 参考訳(メタデータ) (2024-08-10T08:53:41Z) - InstantStyle-Plus: Style Transfer with Content-Preserving in Text-to-Image Generation [4.1177497612346]
スタイル転送(Style Transfer)は、視覚的なスタイルを取り入れながら、オリジナルの本質を維持するイメージを作成するために設計された革新的なプロセスである。
InstantStyle-Plusは、ターゲットスタイルをシームレスに統合しながら、オリジナルコンテンツの整合性を優先するアプローチである。
論文 参考訳(メタデータ) (2024-06-30T18:05:33Z) - InfoStyler: Disentanglement Information Bottleneck for Artistic Style
Transfer [22.29381866838179]
アートスタイルの転送は、アートワークのスタイルを、オリジナル全体のコンテンツを維持しながら写真に転送することを目的としている。
本稿では,コンテンツとスタイル表現の両面において,最小限の情報を取得するために,InfoStylerという新しい情報分離手法を提案する。
論文 参考訳(メタデータ) (2023-07-30T13:38:56Z) - StyleStegan: Leak-free Style Transfer Based on Feature Steganography [19.153040728118285]
既存のスタイル転送方式は 重大なコンテンツ漏洩に悩まされています
特徴ステガノグラフィーに基づくリークフリーなスタイル転送手法を提案する。
その結果、StyleSteganは、シリアルおよび可逆的なスタイル転送タスクにおいて、コンテンツのリーク問題を緩和することに成功した。
論文 参考訳(メタデータ) (2023-07-01T05:00:19Z) - Edge Enhanced Image Style Transfer via Transformers [6.666912981102909]
任意のイメージスタイルの転送が ますます注目を集めています
コンテンツの詳細とスタイル機能のトレードオフを同時に維持することは困難です。
画像スタイルの転送とエッジロスのための新しい変換器ベースのSTTを提案する。
論文 参考訳(メタデータ) (2023-01-02T10:39:31Z) - DiffStyler: Controllable Dual Diffusion for Text-Driven Image
Stylization [66.42741426640633]
DiffStylerは、拡散された結果の内容とスタイルのバランスを制御するための二重拡散処理アーキテクチャである。
本稿では、逆復調処理をベースとしたコンテンツ画像に基づく学習可能なノイズを提案し、そのスタイリング結果により、コンテンツ画像の構造情報をよりよく保存する。
論文 参考訳(メタデータ) (2022-11-19T12:30:44Z) - StyTr^2: Unbiased Image Style Transfer with Transformers [59.34108877969477]
イメージスタイル転送の目的は、オリジナルコンテンツを維持しながら、スタイル参照によってガイドされた芸術的特徴を持つ画像をレンダリングすることである。
従来のニューラルスタイルの転送法は通常バイアスを受けており、コンテントリークは、同じ参照画像でスタイル転送プロセスの何回かの実行によって観察することができる。
我々は、この重要な問題に対処するために、トランスフォーマーベースのアプローチ、すなわちStyTr2を提案する。
論文 参考訳(メタデータ) (2021-05-30T15:57:09Z) - Level-aware Haze Image Synthesis by Self-Supervised Content-Style
Disentanglement [56.99803235546565]
逆行訓練によるhaze画像翻訳の鍵となる手順は、haze合成にのみ関与する特徴、すなわちスタイル特徴と不変意味コンテンツを表す特徴、すなわちそれらの特徴との間にある。
コンテンツ機能。
論文 参考訳(メタデータ) (2021-03-11T06:53:18Z) - Arbitrary Style Transfer via Multi-Adaptation Network [109.6765099732799]
所望のスタイル転送は、内容画像と参照されたスタイル絵が与えられた場合、そのスタイル絵の色調と鮮やかなストロークパターンで内容画像を描画する。
新たな不整合損失関数により,本ネットワークは,様々な入力画像に適応する主文パターンと正確なコンテンツ構造を抽出できる。
論文 参考訳(メタデータ) (2020-05-27T08:00:22Z) - Parameter-Free Style Projection for Arbitrary Style Transfer [64.06126075460722]
本稿では,パラメータフリー,高速,効果的なコンテンツスタイル変換のための特徴レベル変換手法であるStyle Projectionを提案する。
本稿では、任意の画像スタイルの転送にスタイル投影を利用するリアルタイムフィードフォワードモデルを提案する。
論文 参考訳(メタデータ) (2020-03-17T13:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。