論文の概要: Only-Style: Stylistic Consistency in Image Generation without Content Leakage
- arxiv url: http://arxiv.org/abs/2506.09916v1
- Date: Wed, 11 Jun 2025 16:33:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:03.12919
- Title: Only-Style: Stylistic Consistency in Image Generation without Content Leakage
- Title(参考訳): 唯一のスタイル:コンテンツ漏洩のない画像生成における立体的整合性
- Authors: Tilemachos Aravanis, Panagiotis Filntisis, Petros Maragos, George Retsinas,
- Abstract要約: Only-Styleは、スタイリスティックな一貫性を維持しつつ、セマンティックなコヒーレントな方法でコンテンツの漏洩を軽減するために設計された方法である。
Only-Styleは、推論中にコンテンツのリークをローカライズすることで、スタイルアライメントプロセスを制御するパラメータの適応的なチューニングを可能にする。
提案手法は,多種多様なインスタンスにまたがる広範囲な評価により,最先端の手法よりも大幅に改善されたことを示す。
- 参考スコア(独自算出の注目度): 21.68241134664501
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generating images in a consistent reference visual style remains a challenging computer vision task. State-of-the-art methods aiming for style-consistent generation struggle to effectively separate semantic content from stylistic elements, leading to content leakage from the image provided as a reference to the targets. To address this challenge, we propose Only-Style: a method designed to mitigate content leakage in a semantically coherent manner while preserving stylistic consistency. Only-Style works by localizing content leakage during inference, allowing the adaptive tuning of a parameter that controls the style alignment process, specifically within the image patches containing the subject in the reference image. This adaptive process best balances stylistic consistency with leakage elimination. Moreover, the localization of content leakage can function as a standalone component, given a reference-target image pair, allowing the adaptive tuning of any method-specific parameter that provides control over the impact of the stylistic reference. In addition, we propose a novel evaluation framework to quantify the success of style-consistent generations in avoiding undesired content leakage. Our approach demonstrates a significant improvement over state-of-the-art methods through extensive evaluation across diverse instances, consistently achieving robust stylistic consistency without undesired content leakage.
- Abstract(参考訳): 一貫性のある参照視覚スタイルで画像を生成することは、コンピュータビジョンの課題である。
スタイル一貫性のある生成を目的とした最先端の手法では、セマンティックコンテンツをスタイリスティックな要素から効果的に分離し、ターゲットへの参照として提供される画像からコンテンツ漏洩を引き起こす。
この課題に対処するため,文体整合性を維持しつつ,意味的コヒーレントな方法でコンテンツの漏洩を緩和する手法である Only-Style を提案する。
Only-Styleは、推論中にコンテンツのリークをローカライズすることで、参照画像に含まれる被写体を含むイメージパッチ内でスタイルアライメントプロセスを制御するパラメータの適応チューニングを可能にする。
この適応的プロセスは、スタイリスティックな一貫性とリーク除去のバランスを最もよく表す。
さらに、コンテンツリークの局所化は、参照ターゲットのイメージペアが与えられた場合のスタンドアロンコンポーネントとして機能し、スタイリスティックな参照の影響を制御できるメソッド固有のパラメータの適応チューニングを可能にする。
さらに,不要なコンテンツのリークを回避するために,スタイル一貫性世代の成功を定量化する新たな評価フレームワークを提案する。
提案手法は,多種多様なインスタンスに対して広範囲な評価を行い,望ましくないコンテンツのリークを伴わずに頑健なスタイリスティックな整合性を実現することによって,最先端の手法よりも大幅に改善されたことを示す。
関連論文リスト
- ConsiStyle: Style Diversity in Training-Free Consistent T2I Generation [49.1574468325115]
スタイルアライメントと主観的整合性を両立させるトレーニングフリー手法を提案する。
提案手法は,スタイルを主観的外観から効果的に分離し,テキスト整列画像の忠実な生成を可能にする。
論文 参考訳(メタデータ) (2025-05-27T02:06:08Z) - LLM-Enabled Style and Content Regularization for Personalized Text-to-Image Generation [14.508665960053643]
パーソナライズされたテキスト・ツー・イメージ生成は、安定拡散の出現とともに急速に進歩した。
組込み識別子を用いたファインチューンモデルである既存の手法は、しばしばスタイリゼーションの不十分さと不正確な画像の内容に悩まされる。
スタイル改善とコンテンツ保存戦略を提案する。
論文 参考訳(メタデータ) (2025-04-19T04:08:42Z) - ConsisLoRA: Enhancing Content and Style Consistency for LoRA-based Style Transfer [20.088714830700916]
スタイル転送は、参照画像からターゲット画像の内容へのスタイル転送を伴う。
LoRA(Low-Rank Adaptation)手法の最近の進歩は、単一の画像のスタイルを効果的に捉えることに有望であることを示している。
これらのアプローチは、コンテンツの不整合、スタイルのミスアライメント、コンテンツリークといった重要な課題に直面している。
論文 参考訳(メタデータ) (2025-03-13T17:55:58Z) - AttenST: A Training-Free Attention-Driven Style Transfer Framework with Pre-Trained Diffusion Models [4.364797586362505]
AttenSTは、トレーニング不要の注意駆動型スタイル転送フレームワークである。
本稿では,参照スタイルに自己注意を条件付ける,スタイル誘導型自己注意機構を提案する。
また、コンテンツやスタイルの特徴を融合するための二重機能横断機構も導入する。
論文 参考訳(メタデータ) (2025-03-10T13:28:36Z) - ZePo: Zero-Shot Portrait Stylization with Faster Sampling [61.14140480095604]
本稿では,4つのサンプリングステップでコンテンツとスタイルの融合を実現する拡散モデルに基づく,インバージョンフリーなポートレートスタイリングフレームワークを提案する。
本稿では,一貫性機能における冗長な特徴をマージする機能統合戦略を提案し,注意制御の計算負荷を低減させる。
論文 参考訳(メタデータ) (2024-08-10T08:53:41Z) - InstantStyle-Plus: Style Transfer with Content-Preserving in Text-to-Image Generation [4.1177497612346]
スタイル転送(Style Transfer)は、視覚的なスタイルを取り入れながら、オリジナルの本質を維持するイメージを作成するために設計された革新的なプロセスである。
InstantStyle-Plusは、ターゲットスタイルをシームレスに統合しながら、オリジナルコンテンツの整合性を優先するアプローチである。
論文 参考訳(メタデータ) (2024-06-30T18:05:33Z) - ArtWeaver: Advanced Dynamic Style Integration via Diffusion Model [73.95608242322949]
Stylized Text-to-Image Generation (STIG)は、テキストプロンプトとスタイル参照画像から画像を生成することを目的としている。
我々は、事前訓練された安定拡散を利用して、誤解釈スタイルや一貫性のない意味論といった課題に対処する新しいフレームワーク、ArtWeaverを提案する。
論文 参考訳(メタデータ) (2024-05-24T07:19:40Z) - StyleAdapter: A Unified Stylized Image Generation Model [97.24936247688824]
StyleAdapterは、様々なスタイリング画像を生成することができる統一型スタイリング画像生成モデルである。
T2I-adapter や ControlNet のような既存の制御可能な合成手法と統合することができる。
論文 参考訳(メタデータ) (2023-09-04T19:16:46Z) - Style Intervention: How to Achieve Spatial Disentanglement with
Style-based Generators? [100.60938767993088]
任意の入力画像に適応し、フレキシブルな目的の下で自然な翻訳効果をレンダリングできる軽量な最適化アルゴリズムを提案する。
フォトリアリズムと一貫性の両方を必要とする高解像度画像の顔属性編集において,提案するフレームワークの性能を検証する。
論文 参考訳(メタデータ) (2020-11-19T07:37:31Z) - Parameter-Free Style Projection for Arbitrary Style Transfer [64.06126075460722]
本稿では,パラメータフリー,高速,効果的なコンテンツスタイル変換のための特徴レベル変換手法であるStyle Projectionを提案する。
本稿では、任意の画像スタイルの転送にスタイル投影を利用するリアルタイムフィードフォワードモデルを提案する。
論文 参考訳(メタデータ) (2020-03-17T13:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。