論文の概要: StyleDecoupler: Generalizable Artistic Style Disentanglement
- arxiv url: http://arxiv.org/abs/2601.17697v1
- Date: Sun, 25 Jan 2026 05:09:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.218668
- Title: StyleDecoupler: Generalizable Artistic Style Disentanglement
- Title(参考訳): StyleDecoupler: 汎用可能なアートスタイルのアンタングル
- Authors: Zexi Jia, Jinchao Zhang, Jie Zhou,
- Abstract要約: StyleDecouplerは、芸術的なスタイルを表現するための情報理論のフレームワークである。
WeARTは152のスタイルと1,556のアーチストにわたる280Kアートワークの大規模なベンチマークも導入しています。
- 参考スコア(独自算出の注目度): 24.48314583152099
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Representing artistic style is challenging due to its deep entanglement with semantic content. We propose StyleDecoupler, an information-theoretic framework that leverages a key insight: multi-modal vision models encode both style and content, while uni-modal models suppress style to focus on content-invariant features. By using uni-modal representations as content-only references, we isolate pure style features from multi-modal embeddings through mutual information minimization. StyleDecoupler operates as a plug-and-play module on frozen Vision-Language Models without fine-tuning. We also introduce WeART, a large-scale benchmark of 280K artworks across 152 styles and 1,556 artists. Experiments show state-of-the-art performance on style retrieval across WeART and WikiART, while enabling applications like style relationship mapping and generative model evaluation. We release our method and dataset at this url.
- Abstract(参考訳): 芸術的スタイルの表現は、セマンティックコンテンツとの深い絡み合いから困難である。
マルチモーダル視覚モデルは、スタイルとコンテンツの両方をエンコードするが、ユニモーダルモデルは、スタイルを抑圧し、コンテンツ不変の機能にフォーカスする。
コンテンツのみの参照としてユニモーダル表現を使用することで、相互情報の最小化により、マルチモーダル埋め込みから純粋スタイルの特徴を分離する。
StyleDecouplerは、微調整なしで凍結したビジョンランゲージモデル上のプラグアンドプレイモジュールとして動作する。
WeARTは152のスタイルと1,556のアーチストにわたる280Kアートワークの大規模なベンチマークも導入しています。
実験では、スタイル関係マッピングや生成モデル評価などの応用を可能とし、WeARTとWikiARTのスタイル検索における最先端のパフォーマンスを示す。
私たちはこの url でメソッドとデータセットをリリースします。
関連論文リスト
- StyleMotif: Multi-Modal Motion Stylization using Style-Content Cross Fusion [14.213279927964903]
StyleMotifはStylized Motion Latent Diffusionモデルである。
複数のモダリティからコンテンツとスタイルの両方に条件付けされた動作を生成する。
論文 参考訳(メタデータ) (2025-03-27T17:59:46Z) - Pluggable Style Representation Learning for Multi-Style Transfer [41.09041735653436]
スタイルモデリングと転送を分離してスタイル転送フレームワークを開発する。
スタイルモデリングでは,スタイル情報をコンパクトな表現に符号化するスタイル表現学習方式を提案する。
スタイル転送のために,プラガブルなスタイル表現を用いて多様なスタイルに適応するスタイル認識型マルチスタイル転送ネットワーク(SaMST)を開発した。
論文 参考訳(メタデータ) (2025-03-26T09:44:40Z) - WikiStyle+: A Multimodal Approach to Content-Style Representation Disentanglement for Artistic Image Stylization [0.0]
芸術的なイメージスタイリングは、テキストや画像が提供するコンテンツをターゲットスタイルでレンダリングすることを目的としている。
コンテンツとスタイルのゆがみの現在の手法は、画像の監督に依存している。
本稿では,芸術的イメージスタイリングのためのコンテンツスタイルのゆがみに対するマルチモーダルアプローチを提案する。
論文 参考訳(メタデータ) (2024-12-19T03:42:58Z) - IntroStyle: Training-Free Introspective Style Attribution using Diffusion Features [89.95303251220734]
スタイル帰属問題を解決するための学習自由フレームワークを提案する。
IntroStyleはスタイル属性の最先端モデルよりも優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-12-19T01:21:23Z) - DiffArtist: Towards Structure and Appearance Controllable Image Stylization [35.59051707152096]
textbfDiffArtistは、構造と外観スタイルの強さの両方をきめ細かな同時制御する最初の2Dスタイリング方法である。
解析の結果,DiffArtistは最先端の手法と比較して,スタイルの忠実さと二重制御性が優れていることがわかった。
論文 参考訳(メタデータ) (2024-07-22T17:58:05Z) - ArtWeaver: Advanced Dynamic Style Integration via Diffusion Model [73.95608242322949]
Stylized Text-to-Image Generation (STIG)は、テキストプロンプトとスタイル参照画像から画像を生成することを目的としている。
我々は、事前訓練された安定拡散を利用して、誤解釈スタイルや一貫性のない意味論といった課題に対処する新しいフレームワーク、ArtWeaverを提案する。
論文 参考訳(メタデータ) (2024-05-24T07:19:40Z) - StyleAdapter: A Unified Stylized Image Generation Model [97.24936247688824]
StyleAdapterは、様々なスタイリング画像を生成することができる統一型スタイリング画像生成モデルである。
T2I-adapter や ControlNet のような既存の制御可能な合成手法と統合することができる。
論文 参考訳(メタデータ) (2023-09-04T19:16:46Z) - StyleMeUp: Towards Style-Agnostic Sketch-Based Image Retrieval [119.03470556503942]
クロスモーダルマッチング問題は通常、写真とスケッチのモダリティ間で共有されるセマンティックコンテンツを保存する共同埋め込み空間を学習することによって解決される。
効果的なモデルには、このスタイルの多様性を明確に説明する必要がある。
我々のモデルは、モデム間で共有されるセマンティックコンテンツだけでなく、目に見えないユーザースタイルにも適応できるので、モデルは真に不可知的です。
論文 参考訳(メタデータ) (2021-03-29T15:44:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。