論文の概要: Motion2Motion: Cross-topology Motion Transfer with Sparse Correspondence
- arxiv url: http://arxiv.org/abs/2508.13139v1
- Date: Mon, 18 Aug 2025 17:50:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:11.519326
- Title: Motion2Motion: Cross-topology Motion Transfer with Sparse Correspondence
- Title(参考訳): Motion2Motion:スパース対応によるクロストポロジー運動伝達
- Authors: Ling-Hao Chen, Yuhong Zhang, Zixin Yin, Zhiyang Dou, Xin Chen, Jingbo Wang, Taku Komura, Lei Zhang,
- Abstract要約: Motion2Motionは、スケルトン間のアニメーションのためのトレーニング不要のフレームワークである。
類似の骨格とクロス種の骨格移動シナリオの両方において、効率的で信頼性の高い性能を達成する。
- 参考スコア(独自算出の注目度): 25.60034096772463
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work studies the challenge of transfer animations between characters whose skeletal topologies differ substantially. While many techniques have advanced retargeting techniques in decades, transfer motions across diverse topologies remains less-explored. The primary obstacle lies in the inherent topological inconsistency between source and target skeletons, which restricts the establishment of straightforward one-to-one bone correspondences. Besides, the current lack of large-scale paired motion datasets spanning different topological structures severely constrains the development of data-driven approaches. To address these limitations, we introduce Motion2Motion, a novel, training-free framework. Simply yet effectively, Motion2Motion works with only one or a few example motions on the target skeleton, by accessing a sparse set of bone correspondences between the source and target skeletons. Through comprehensive qualitative and quantitative evaluations, we demonstrate that Motion2Motion achieves efficient and reliable performance in both similar-skeleton and cross-species skeleton transfer scenarios. The practical utility of our approach is further evidenced by its successful integration in downstream applications and user interfaces, highlighting its potential for industrial applications. Code and data are available at https://lhchen.top/Motion2Motion.
- Abstract(参考訳): 本研究は,骨格トポロジが著しく異なるキャラクタ間でアニメーションを転送することの課題について考察する。
多くの技術が何十年にもわたって先進的な再ターゲティング技術を提供してきたが、多種多様なトポロジをまたいだ移動運動はいまだに探索されていない。
主な障害は、ソースとターゲットの骨格間の固有のトポロジカルな不整合にある。
さらに、異なるトポロジ構造にまたがる大規模なペアモーションデータセットの欠如は、データ駆動型アプローチの開発を厳しく制約している。
これらの制限に対処するために、新しいトレーニング不要のフレームワークであるMotion2Motionを紹介します。
単純に効果的に、Motion2Motionは、ソースとターゲットの骨格の間の疎い骨の対応にアクセスすることで、ターゲットの骨格上の1つまたは数つの例のみで動作する。
総合的な質的,定量的な評価を通じて,運動2運動は類似の骨格移動シナリオとクロス種の骨格移動シナリオの両方において,効率的かつ信頼性の高い性能を達成できることを実証した。
このアプローチの実用性は、ダウンストリームアプリケーションとユーザインターフェースの統合が成功し、産業アプリケーションの可能性を強調していることから、さらに証明されている。
コードとデータはhttps://lhchen.top/Motion2Motion.orgで公開されている。
関連論文リスト
- AnyMoLe: Any Character Motion In-betweening Leveraging Video Diffusion Models [5.224806515926022]
外部データを持たない任意の文字に対するフレーム間の動きを生成する新しい手法であるAnyMoLeを導入する。
本手法では,文脈理解を高めるために2段階のフレーム生成プロセスを用いる。
論文 参考訳(メタデータ) (2025-03-11T13:28:59Z) - Instance-Level Moving Object Segmentation from a Single Image with Events [84.12761042512452]
移動対象セグメンテーションは、複数の移動対象を含む動的なシーンを理解する上で重要な役割を果たす。
従来の手法では、物体の画素変位がカメラの動きや物体の動きによって引き起こされるかどうかを区別することが困難であった。
近年の進歩は、従来の画像の不適切な動作モデリング機能に対抗するために、新しいイベントカメラの動作感度を利用する。
補完的なテクスチャとモーションキューを統合した,最初のインスタンスレベルの移動オブジェクトセグメンテーションフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-18T15:56:46Z) - Two-Person Interaction Augmentation with Skeleton Priors [16.65884142618145]
本稿では,2体インタラクション運動増強のための新しい深層学習法を提案する。
我々のシステムは比較的少量のデータから効果的に学習でき、骨格サイズが大幅に異なるように一般化できる。
論文 参考訳(メタデータ) (2024-04-08T13:11:57Z) - DiverseMotion: Towards Diverse Human Motion Generation via Discrete
Diffusion [70.33381660741861]
テキスト記述に基づく高品質な人間の動作を合成するための新しいアプローチであるDiverseMotionを提案する。
我々のDiverseMotionは、最先端のモーション品質と競争力の多様性を達成できることを示す。
論文 参考訳(メタデータ) (2023-09-04T05:43:48Z) - MoDi: Unconditional Motion Synthesis from Diverse Data [51.676055380546494]
多様な動きを合成する無条件生成モデルであるMoDiを提案する。
我々のモデルは、多様な、構造化されていない、ラベルなしのモーションデータセットから完全に教師なしの設定で訓練されている。
データセットに構造が欠けているにもかかわらず、潜在空間は意味的にクラスタ化可能であることを示す。
論文 参考訳(メタデータ) (2022-06-16T09:06:25Z) - Real-time Controllable Motion Transition for Characters [14.88407656218885]
リアルタイムの動作生成はゲームでは普遍的に必要であり、既存のアニメーションパイプラインでは非常に望ましい。
我々のアプローチは、運動多様体と条件遷移という2つの重要な構成要素から構成される。
提案手法は,複数の測定基準の下で測定された高品質な動きを生成できることを示す。
論文 参考訳(メタデータ) (2022-05-05T10:02:54Z) - Unsupervised Motion Representation Learning with Capsule Autoencoders [54.81628825371412]
Motion Capsule Autoencoder (MCAE) は、2レベル階層のモーションをモデル化する。
MCAEは、新しいTrajectory20モーションデータセットと、様々な現実世界の骨格に基づく人間のアクションデータセットで評価されている。
論文 参考訳(メタデータ) (2021-10-01T16:52:03Z) - Learning Multi-Granular Spatio-Temporal Graph Network for Skeleton-based
Action Recognition [49.163326827954656]
骨格に基づく行動分類のための新しい多言語時空間グラフネットワークを提案する。
2つの枝の枝からなるデュアルヘッドグラフネットワークを開発し、少なくとも2つの時間分解能を抽出する。
3つの大規模データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-08-10T09:25:07Z) - Skeleton-Aware Networks for Deep Motion Retargeting [83.65593033474384]
骨格間のデータ駆動動作のための新しいディープラーニングフレームワークを提案する。
我々の手法は、トレーニングセットの運動間の明確なペアリングを必要とせずに、再ターゲティングの仕方を学ぶ。
論文 参考訳(メタデータ) (2020-05-12T12:51:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。