論文の概要: Expanding the Content-Style Frontier: a Balanced Subspace Blending Approach for Content-Style LoRA Fusion
- arxiv url: http://arxiv.org/abs/2511.01355v1
- Date: Mon, 03 Nov 2025 09:03:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:27.186652
- Title: Expanding the Content-Style Frontier: a Balanced Subspace Blending Approach for Content-Style LoRA Fusion
- Title(参考訳): コンテンツスタイルフロンティアの拡張:コンテンツスタイルのLoRA核融合のためのバランスの取れたサブスペースブレンディングアプローチ
- Authors: Linhao Huang,
- Abstract要約: 本稿では,コンテンツスタイルのサブスペースブレンディングとコンテンツスタイルのバランス損失を利用して,コンテンツスタイルのフロンティアを拡張する新しいアプローチを提案する。
提案手法は,様々なスタイル強度のコンテント類似性を向上し,コンテンツスタイルフロンティアを大幅に拡張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advancements in text-to-image diffusion models have significantly improved the personalization and stylization of generated images. However, previous studies have only assessed content similarity under a single style intensity. In our experiments, we observe that increasing style intensity leads to a significant loss of content features, resulting in a suboptimal content-style frontier. To address this, we propose a novel approach to expand the content-style frontier by leveraging Content-Style Subspace Blending and a Content-Style Balance loss. Our method improves content similarity across varying style intensities, significantly broadening the content-style frontier. Extensive experiments demonstrate that our approach outperforms existing techniques in both qualitative and quantitative evaluations, achieving superior content-style trade-off with significantly lower Inverted Generational Distance (IGD) and Generational Distance (GD) scores compared to current methods.
- Abstract(参考訳): テキスト・画像拡散モデルの最近の進歩は、生成画像のパーソナライズとスタイリングを著しく改善している。
しかし、以前の研究では、単一のスタイルの強度で内容の類似性を評価するのみであった。
実験では, スタイル強度の増大がコンテンツ特徴の著しく低下を招き, コンテンツスタイルのフロンティアが形成される。
そこで本研究では,コンテンツスタイルのサブスペースブレンディングとコンテンツスタイルのバランス損失を利用した,コンテンツスタイルのフロンティアの拡張手法を提案する。
提案手法は,様々なスタイル強度のコンテント類似性を向上し,コンテンツスタイルフロンティアを大幅に拡張する。
大規模実験により,本手法は定性評価と定量的評価の両方において既存の手法よりも優れており,逆世代距離(IGD)と世代距離(GD)のスコアが従来手法よりも大幅に低い内容スタイルのトレードオフを実現していることが示された。
関連論文リスト
- CSD-VAR: Content-Style Decomposition in Visual Autoregressive Models [5.821094777538556]
コンテンツスタイル分解として知られる単一の画像からコンテンツとスタイルを分離することで、抽出したコンテンツの再テクスチャ化と抽出したスタイルのスタイル化が可能になる。
Visual Autoregressive Modelingは、次世代の予測パラダイムで有望な代替手段として登場した。
論文 参考訳(メタデータ) (2025-07-18T14:45:48Z) - ConsisLoRA: Enhancing Content and Style Consistency for LoRA-based Style Transfer [20.088714830700916]
スタイル転送は、参照画像からターゲット画像の内容へのスタイル転送を伴う。
LoRA(Low-Rank Adaptation)手法の最近の進歩は、単一の画像のスタイルを効果的に捉えることに有望であることを示している。
これらのアプローチは、コンテンツの不整合、スタイルのミスアライメント、コンテンツリークといった重要な課題に直面している。
論文 参考訳(メタデータ) (2025-03-13T17:55:58Z) - Balanced Image Stylization with Style Matching Score [36.542802101359705]
Style Matching Score (SMS) は拡散モデルを用いた画像スタイリングの新しい最適化手法である。
SMSはスタイルのアライメントとコンテンツ保存のバランスを保ち、最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2025-03-10T17:58:02Z) - DiffuseST: Unleashing the Capability of the Diffusion Model for Style Transfer [13.588643982359413]
スタイル転送は、スタイル画像の芸術的表現をコンテンツ画像の構造情報と融合させることを目的としている。
既存の方法は特定のネットワークを訓練したり、事前訓練されたモデルを使ってコンテンツやスタイルの特徴を学習する。
本稿では,テキスト埋め込みと空間的特徴を組み合わせた,新しい学習不要なスタイル伝達手法を提案する。
論文 参考訳(メタデータ) (2024-10-19T06:42:43Z) - ZePo: Zero-Shot Portrait Stylization with Faster Sampling [61.14140480095604]
本稿では,4つのサンプリングステップでコンテンツとスタイルの融合を実現する拡散モデルに基づく,インバージョンフリーなポートレートスタイリングフレームワークを提案する。
本稿では,一貫性機能における冗長な特徴をマージする機能統合戦略を提案し,注意制御の計算負荷を低減させる。
論文 参考訳(メタデータ) (2024-08-10T08:53:41Z) - ArtWeaver: Advanced Dynamic Style Integration via Diffusion Model [73.95608242322949]
Stylized Text-to-Image Generation (STIG)は、テキストプロンプトとスタイル参照画像から画像を生成することを目的としている。
我々は、事前訓練された安定拡散を利用して、誤解釈スタイルや一貫性のない意味論といった課題に対処する新しいフレームワーク、ArtWeaverを提案する。
論文 参考訳(メタデータ) (2024-05-24T07:19:40Z) - HiCAST: Highly Customized Arbitrary Style Transfer with Adapter Enhanced
Diffusion Models [84.12784265734238]
Arbitrary Style Transfer (AST)の目標は、あるスタイル参照の芸術的特徴を所定の画像/ビデオに注入することである。
各種のセマンティックな手がかりに基づいてスタイリング結果を明示的にカスタマイズできるHiCASTを提案する。
新たな学習目標をビデオ拡散モデルトレーニングに活用し,フレーム間の時間的一貫性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-01-11T12:26:23Z) - DiffStyler: Controllable Dual Diffusion for Text-Driven Image
Stylization [66.42741426640633]
DiffStylerは、拡散された結果の内容とスタイルのバランスを制御するための二重拡散処理アーキテクチャである。
本稿では、逆復調処理をベースとしたコンテンツ画像に基づく学習可能なノイズを提案し、そのスタイリング結果により、コンテンツ画像の構造情報をよりよく保存する。
論文 参考訳(メタデータ) (2022-11-19T12:30:44Z) - Arbitrary Style Transfer via Multi-Adaptation Network [109.6765099732799]
所望のスタイル転送は、内容画像と参照されたスタイル絵が与えられた場合、そのスタイル絵の色調と鮮やかなストロークパターンで内容画像を描画する。
新たな不整合損失関数により,本ネットワークは,様々な入力画像に適応する主文パターンと正確なコンテンツ構造を抽出できる。
論文 参考訳(メタデータ) (2020-05-27T08:00:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。