論文の概要: AStF: Motion Style Transfer via Adaptive Statistics Fusor
- arxiv url: http://arxiv.org/abs/2511.04192v1
- Date: Thu, 06 Nov 2025 08:51:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.371145
- Title: AStF: Motion Style Transfer via Adaptive Statistics Fusor
- Title(参考訳): AStF:Adaptive Statistics Fusorによるモーションスタイルの転送
- Authors: Hanmo Chen, Chenghao Xu, Jiexi Yan, Cheng Deng,
- Abstract要約: 本稿では,SDM(Style Distemporalment Module)とHO-SAttn(High-Order Multi-Statistics Attention)を組み合わせた適応統計ファサー(Adaptive Statistics Fusor)を提案する。
実験結果から,より包括的なモデルを提供することで,最先端技術よりも動作スタイルの習熟度が向上することが示唆された。
- 参考スコア(独自算出の注目度): 58.660938790014455
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human motion style transfer allows characters to appear less rigidity and more realism with specific style. Traditional arbitrary image style transfer typically process mean and variance which is proved effective. Meanwhile, similar methods have been adapted for motion style transfer. However, due to the fundamental differences between images and motion, relying on mean and variance is insufficient to fully capture the complex dynamic patterns and spatiotemporal coherence properties of motion data. Building upon this, our key insight is to bring two more coefficient, skewness and kurtosis, into the analysis of motion style. Specifically, we propose a novel Adaptive Statistics Fusor (AStF) which consists of Style Disentanglement Module (SDM) and High-Order Multi-Statistics Attention (HOS-Attn). We trained our AStF in conjunction with a Motion Consistency Regularization (MCR) discriminator. Experimental results show that, by providing a more comprehensive model of the spatiotemporal statistical patterns inherent in dynamic styles, our proposed AStF shows proficiency superiority in motion style transfers over state-of-the-arts. Our code and model are available at https://github.com/CHMimilanlan/AStF.
- Abstract(参考訳): 人間のモーションスタイルの転送により、キャラクターはより厳格さを減らし、特定のスタイルでリアリズムを増すことができる。
従来の任意の画像スタイルの転送は通常、プロセス平均と分散が有効であることが証明される。
一方、同様の手法がモーションスタイルの転送に応用されている。
しかし、画像と動きの基本的な相違により、動きデータの複雑な動的パターンと時空間的コヒーレンス特性を完全に捉えるには、平均と分散に依存するには不十分である。
これに基づいて、我々の重要な洞察は、運動様式の分析にさらに2つの係数、歪と曲率をもたらすことである。
具体的には,SDM(Style Disentanglement Module)とHOS-Attn(High-Order Multi-Statistics Attention)からなる適応統計ファサー(Adaptive Statistics Fusor,AStF)を提案する。
運動整合規則化(MCR)と併用してAStFを訓練した。
実験結果から, 動的スタイルに固有の時空間統計パターンのより包括的なモデルを提供することにより, AStFは最先端技術よりも動作スタイルの伝達において, 習熟度が優れていることが示された。
私たちのコードとモデルはhttps://github.com/CHMimilanlan/AStF.comで公開されています。
関連論文リスト
- FlowMo: Variance-Based Flow Guidance for Coherent Motion in Video Generation [51.110607281391154]
FlowMoは、テキスト・ビデオ・モデルにおける動きコヒーレンスを高めるためのトレーニング不要のガイダンス手法である。
時間次元のパッチワイドな分散を測定して動きのコヒーレンスを推定し、サンプリング中にこの分散を動的に減少させるためにモデルを導く。
論文 参考訳(メタデータ) (2025-06-01T19:55:33Z) - Dance Like a Chicken: Low-Rank Stylization for Human Motion Diffusion [28.94750481325469]
編集性を維持しながら複雑な動作に一般化する動きスタイリングのためのフレームワークであるLoRA-MDMを紹介する。
我々の重要な洞察は、そのスタイルを含む前に生成体を適応させることは、その全体の分布を保ちながら、生成中の個々の動きを変更するよりも効果的であるということである。
LoRA-MDMは、いくつかのサンプルを使用して参照スタイルを含める前に適応することを学ぶ。
論文 参考訳(メタデータ) (2025-03-25T11:23:34Z) - SMCD: High Realism Motion Style Transfer via Mamba-based Diffusion [12.426879081036116]
モーションスタイルの転送により、仮想デジタル人間は同じ動きの異なるスタイルを素早く切り替えることができる。
既存の手法の多くは2ストリーム構造を採用しており、内容とスタイルの動作の本質的な関係を無視する傾向にある。
コンテンツとスタイルの両方から特徴を同時に抽出するUMSD(Unified Motion Style Diffusion)フレームワークを提案する。
また,動作スタイル変換の分野における最初のアプローチである運動スタイル・マンバ(MSM)デノイザを導入し,マンバの強力なシーケンスモデリング能力を活用する。
論文 参考訳(メタデータ) (2024-05-05T08:28:07Z) - Priority-Centric Human Motion Generation in Discrete Latent Space [59.401128190423535]
テキスト・ツー・モーション生成のための優先中心運動離散拡散モデル(M2DM)を提案する。
M2DMは、コード崩壊に対処するために、グローバルな自己注意機構と正規化用語を組み込んでいる。
また、各動きトークンの重要度から決定される革新的なノイズスケジュールを用いた動き離散拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-08-28T10:40:16Z) - RSMT: Real-time Stylized Motion Transition for Characters [15.856276818061891]
実時間ストライズされた動き遷移法(RSMT)を提案する。
本手法は, 一般運動多様体モデルとスタイル運動サンプリング器の2つの重要な独立成分から構成される。
提案手法は, 高速, 高品質, 汎用性, 制御可能であることを証明した。
論文 参考訳(メタデータ) (2023-06-21T01:50:04Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。