論文の概要: ClusterStyle: Modeling Intra-Style Diversity with Prototypical Clustering for Stylized Motion Generation
- arxiv url: http://arxiv.org/abs/2512.02453v1
- Date: Tue, 02 Dec 2025 06:24:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-03 21:04:45.745333
- Title: ClusterStyle: Modeling Intra-Style Diversity with Prototypical Clustering for Stylized Motion Generation
- Title(参考訳): ClusterStyle: ステイライズされた動作生成のためのプロトタイプクラスタリングによる構造内多様性のモデル化
- Authors: Kerui Chen, Jianrong Zhang, Ming Li, Zhonglong Zheng, Hehe Fan,
- Abstract要約: 本稿では,クラスタリングベースのフレームワークであるClusterStyleを提案する。
プロトタイプの集合を利用して、同じスタイルカテゴリに属する動きをまたいだ多様なスタイルパターンをモデル化する。
提案手法は,スタイル化された動作生成と動作スタイルの伝達において,既存の最先端モデルよりも優れている。
- 参考スコア(独自算出の注目度): 33.75564496181951
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing stylized motion generation models have shown their remarkable ability to understand specific style information from the style motion, and insert it into the content motion. However, capturing intra-style diversity, where a single style should correspond to diverse motion variations, remains a significant challenge. In this paper, we propose a clustering-based framework, ClusterStyle, to address this limitation. Instead of learning an unstructured embedding from each style motion, we leverage a set of prototypes to effectively model diverse style patterns across motions belonging to the same style category. We consider two types of style diversity: global-level diversity among style motions of the same category, and local-level diversity within the temporal dynamics of motion sequences. These components jointly shape two structured style embedding spaces, i.e., global and local, optimized via alignment with non-learnable prototype anchors. Furthermore, we augment the pretrained text-to-motion generation model with the Stylistic Modulation Adapter (SMA) to integrate the style features. Extensive experiments demonstrate that our approach outperforms existing state-of-the-art models in stylized motion generation and motion style transfer.
- Abstract(参考訳): 既存のスタイル化された動作生成モデルは、スタイル動作から特定のスタイル情報を理解し、コンテンツ動作に挿入する能力を示す。
しかし、単一のスタイルが多様な動きのバリエーションに対応するべきスタイルの多様性を捉えることは、依然として重要な課題である。
本稿では,クラスタリングベースのフレームワークであるClusterStyleを提案する。
各スタイルの動作から非構造的な埋め込みを学習する代わりに、プロトタイプのセットを活用して、同じスタイルのカテゴリに属する動作にまたがる多様なスタイルパターンを効果的にモデル化する。
我々は,同じカテゴリーのスタイル動作におけるグローバルレベルの多様性と,動作系列の時間的ダイナミクスにおける局所レベルの多様性という,スタイルの多様性の2つのタイプを考察する。
これらのコンポーネントは、グローバルとローカルの2つの構造化されたスタイルの埋め込み空間を共同で形成し、非学習可能なプロトタイプアンカーとのアライメントによって最適化する。
さらに,Stylistic Modulation Adapter (SMA) を用いて事前学習したテキスト・ツー・モーション生成モデルを拡張し,そのスタイル機能を統合する。
広汎な実験により,本手法は,スタイル化された動作生成や動作スタイルの伝達において,既存の最先端モデルよりも優れていることが示された。
関連論文リスト
- AStF: Motion Style Transfer via Adaptive Statistics Fusor [58.660938790014455]
本稿では,SDM(Style Distemporalment Module)とHO-SAttn(High-Order Multi-Statistics Attention)を組み合わせた適応統計ファサー(Adaptive Statistics Fusor)を提案する。
実験結果から,より包括的なモデルを提供することで,最先端技術よりも動作スタイルの習熟度が向上することが示唆された。
論文 参考訳(メタデータ) (2025-11-06T08:51:24Z) - StyleMotif: Multi-Modal Motion Stylization using Style-Content Cross Fusion [14.213279927964903]
StyleMotifはStylized Motion Latent Diffusionモデルである。
複数のモダリティからコンテンツとスタイルの両方に条件付けされた動作を生成する。
論文 参考訳(メタデータ) (2025-03-27T17:59:46Z) - Pluggable Style Representation Learning for Multi-Style Transfer [41.09041735653436]
スタイルモデリングと転送を分離してスタイル転送フレームワークを開発する。
スタイルモデリングでは,スタイル情報をコンパクトな表現に符号化するスタイル表現学習方式を提案する。
スタイル転送のために,プラガブルなスタイル表現を用いて多様なスタイルに適応するスタイル認識型マルチスタイル転送ネットワーク(SaMST)を開発した。
論文 参考訳(メタデータ) (2025-03-26T09:44:40Z) - MulSMo: Multimodal Stylized Motion Generation by Bidirectional Control Flow [11.491447470132279]
既存の方法では、情報は通常、スタイルからコンテンツへのみ流れ、スタイルとコンテンツの間に衝突を引き起こす可能性がある。
この作業では、スタイルとコンテンツの間に双方向の制御フローを構築し、そのスタイルをコンテンツに向けて調整します。
我々は、文や画像を含む複数のモダリティに1つのモダリティ、すなわちスタイル運動から、コントラスト学習を通じてスタイル化されたモーション生成を拡張する。
論文 参考訳(メタデータ) (2024-12-13T06:40:26Z) - SMooDi: Stylized Motion Diffusion Model [46.293854851116215]
本稿では、コンテンツテキストとスタイルシーケンスによって駆動されるスタイル化された動作を生成するための、SMooDiと呼ばれる新しいスティル化モーション拡散モデルを提案する。
提案手法は,従来のスタイル化動作生成手法よりも優れていた。
論文 参考訳(メタデータ) (2024-07-17T17:59:42Z) - ArtWeaver: Advanced Dynamic Style Integration via Diffusion Model [73.95608242322949]
Stylized Text-to-Image Generation (STIG)は、テキストプロンプトとスタイル参照画像から画像を生成することを目的としている。
我々は、事前訓練された安定拡散を利用して、誤解釈スタイルや一貫性のない意味論といった課題に対処する新しいフレームワーク、ArtWeaverを提案する。
論文 参考訳(メタデータ) (2024-05-24T07:19:40Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - StyleMeUp: Towards Style-Agnostic Sketch-Based Image Retrieval [119.03470556503942]
クロスモーダルマッチング問題は通常、写真とスケッチのモダリティ間で共有されるセマンティックコンテンツを保存する共同埋め込み空間を学習することによって解決される。
効果的なモデルには、このスタイルの多様性を明確に説明する必要がある。
我々のモデルは、モデム間で共有されるセマンティックコンテンツだけでなく、目に見えないユーザースタイルにも適応できるので、モデルは真に不可知的です。
論文 参考訳(メタデータ) (2021-03-29T15:44:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。