論文の概要: Mixture of Style Experts for Diverse Image Stylization
- arxiv url: http://arxiv.org/abs/2603.16649v1
- Date: Tue, 17 Mar 2026 15:20:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.365229
- Title: Mixture of Style Experts for Diverse Image Stylization
- Title(参考訳): 画像スティル化のためのスタイルエキスパートの混合
- Authors: Shihao Zhu, Ziheng Ouyang, Yijia Kang, Qilong Wang, Mi Zhou, Bo Li, Ming-Ming Cheng, Qibin Hou,
- Abstract要約: StyleExpertは、Mixture of Experts (MoE)をベースにしたセマンティックアウェアフレームワークである
我々のフレームワークは、コンテンツスタイルのスタイリング三重項の大規模データセットに基づいて訓練された統一型スタイルエンコーダを使用している。
本手法は, 浅いテクスチャから深いセマンティクスまで, 複数のセマンティクスレベルにまたがる多様なスタイルを扱う。
- 参考スコア(独自算出の注目度): 73.7600741657193
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion-based stylization has advanced significantly, yet existing methods are limited to color-driven transformations, neglecting complex semantics and material details.We introduce StyleExpert, a semantic-aware framework based on the Mixture of Experts (MoE). Our framework employs a unified style encoder, trained on our large-scale dataset of content-style-stylized triplets, to embed diverse styles into a consistent latent space. This embedding is then used to condition a similarity-aware gating mechanism, which dynamically routes styles to specialized experts within the MoE architecture. Leveraging this MoE architecture, our method adeptly handles diverse styles spanning multiple semantic levels, from shallow textures to deep semantics. Extensive experiments show that StyleExpert outperforms existing approaches in preserving semantics and material details, while generalizing to unseen styles. Our code and collected images are available at the project page: https://hh-lg.github.io/StyleExpert-Page/.
- Abstract(参考訳): 拡散に基づくスタイリゼーションは著しく進歩しているが,既存の手法は複雑なセマンティクスや材料の詳細を無視した色駆動変換に限られており,我々はMixture of Experts (MoE)に基づく意味認識フレームワークであるStyleExpertを紹介する。
当社のフレームワークでは,大規模なコンテンツスタイルスティル化三重項データセットに基づいてトレーニングされた統一型スタイルエンコーダを使用して,多種多様なスタイルを一貫した潜在空間に埋め込む。
この埋め込みは、MoEアーキテクチャ内の専門の専門家に動的にスタイルをルーティングする類似性認識ゲーティングメカニズムの条件付けに使用される。
このMoEアーキテクチャを利用することで、浅いテクスチャから深いセマンティックスまで、複数のセマンティックレベルにまたがる多様なスタイルを効果的に処理する。
広範囲にわたる実験によると、StyleExpertは意味論や資料の詳細を保存し、目に見えないスタイルに一般化する既存のアプローチより優れている。
私たちのコードと収集されたイメージは、プロジェクトページで利用可能です。
関連論文リスト
- Pluggable Style Representation Learning for Multi-Style Transfer [41.09041735653436]
スタイルモデリングと転送を分離してスタイル転送フレームワークを開発する。
スタイルモデリングでは,スタイル情報をコンパクトな表現に符号化するスタイル表現学習方式を提案する。
スタイル転送のために,プラガブルなスタイル表現を用いて多様なスタイルに適応するスタイル認識型マルチスタイル転送ネットワーク(SaMST)を開発した。
論文 参考訳(メタデータ) (2025-03-26T09:44:40Z) - ReStyle3D: Scene-Level Appearance Transfer with Semantic Correspondences [33.06053818091165]
ReStyle3Dは、シーンレベルの外観を1つのスタイルのイメージから、複数のビューで表現された現実世界のシーンに転送するためのフレームワークである。
明示的な意味対応と多視点整合性を組み合わせることで、正確で一貫性のあるスタイリングを実現する。
私たちのコード、事前訓練されたモデル、データセットは、インテリアデザイン、仮想ステージング、そして3D一貫性のあるスタイリングにおける新しいアプリケーションをサポートするために、公開されます。
論文 参考訳(メタデータ) (2025-02-14T18:54:21Z) - StyleDistance: Stronger Content-Independent Style Embeddings with Synthetic Parallel Examples [48.44036251656947]
スタイル表現は、内容に関係なく、類似した書体スタイルのテキストを密に埋め込み、異なる書体スタイルのテキストを遠くに埋め込むことを目的としている。
より強力なコンテンツに依存しないスタイル埋め込みをトレーニングするための新しいアプローチであるStyleDistanceを紹介する。
論文 参考訳(メタデータ) (2024-10-16T17:25:25Z) - StyleBrush: Style Extraction and Transfer from a Single Image [19.652575295703485]
ビジュアルコンテンツのスティル化は、オリジナルの構造的特徴を保ちながら、ピクセルレベルで特定のスタイルパターンを追加することを目的としている。
本稿では,参照画像からスタイルを正確にキャプチャし,抽出したスタイルを他の入力ビジュアルコンテンツにブラシするStyleBrushを提案する。
論文 参考訳(メタデータ) (2024-08-18T14:27:20Z) - ArtWeaver: Advanced Dynamic Style Integration via Diffusion Model [73.95608242322949]
Stylized Text-to-Image Generation (STIG)は、テキストプロンプトとスタイル参照画像から画像を生成することを目的としている。
我々は、事前訓練された安定拡散を利用して、誤解釈スタイルや一貫性のない意味論といった課題に対処する新しいフレームワーク、ArtWeaverを提案する。
論文 参考訳(メタデータ) (2024-05-24T07:19:40Z) - Styleverse: Towards Identity Stylization across Heterogeneous Domains [70.13327076710269]
異種ドメイン間のIDS(IDentity Stylization)という課題を提案する。
有効な異種ネットワークベースのフレームワークである$Styleverse$を使用し、単一のドメイン認識ジェネレータを使用します。
$Styleverseは、他の最先端の方法と比較して、より忠実なアイデンティティスタイリングを実現する。
論文 参考訳(メタデータ) (2022-03-02T04:23:01Z) - StyleMeUp: Towards Style-Agnostic Sketch-Based Image Retrieval [119.03470556503942]
クロスモーダルマッチング問題は通常、写真とスケッチのモダリティ間で共有されるセマンティックコンテンツを保存する共同埋め込み空間を学習することによって解決される。
効果的なモデルには、このスタイルの多様性を明確に説明する必要がある。
我々のモデルは、モデム間で共有されるセマンティックコンテンツだけでなく、目に見えないユーザースタイルにも適応できるので、モデルは真に不可知的です。
論文 参考訳(メタデータ) (2021-03-29T15:44:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。