論文の概要: MimiCAT: Mimic with Correspondence-Aware Cascade-Transformer for Category-Free 3D Pose Transfer
- arxiv url: http://arxiv.org/abs/2511.18370v1
- Date: Sun, 23 Nov 2025 09:28:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.803837
- Title: MimiCAT: Mimic with Correspondence-Aware Cascade-Transformer for Category-Free 3D Pose Transfer
- Title(参考訳): MimiCAT:カテゴリーフリー3Dポッド転送のための対応対応型カスケード変換器
- Authors: Zenghao Chai, Chen Tang, Yongkang Wong, Xulei Yang, Mohan Kankanhalli,
- Abstract要約: 3Dポーズ転送は、ターゲットの形状とソースのポーズ特性の両方を保持しながら、ソースメッシュのポーズスタイルをターゲットキャラクタに転送することを目的としている。
既存の手法は、ほとんど類似した構造を持つ文字に限られており、カテゴリーなしの設定に一般化できない。
カテゴリフリーな3Dポーズ転送用に設計されたカスケード変換器モデルであるMimiCATを提案する。
- 参考スコア(独自算出の注目度): 29.06828928176544
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D pose transfer aims to transfer the pose-style of a source mesh to a target character while preserving both the target's geometry and the source's pose characteristic. Existing methods are largely restricted to characters with similar structures and fail to generalize to category-free settings (e.g., transferring a humanoid's pose to a quadruped). The key challenge lies in the structural and transformation diversity inherent in distinct character types, which often leads to mismatched regions and poor transfer quality. To address these issues, we first construct a million-scale pose dataset across hundreds of distinct characters. We further propose MimiCAT, a cascade-transformer model designed for category-free 3D pose transfer. Instead of relying on strict one-to-one correspondence mappings, MimiCAT leverages semantic keypoint labels to learn a novel soft correspondence that enables flexible many-to-many matching across characters. The pose transfer is then formulated as a conditional generation process, in which the source transformations are first projected onto the target through soft correspondence matching and subsequently refined using shape-conditioned representations. Extensive qualitative and quantitative experiments demonstrate that MimiCAT transfers plausible poses across different characters, significantly outperforming prior methods that are limited to narrow category transfer (e.g., humanoid-to-humanoid).
- Abstract(参考訳): 3Dポーズ転送は、ターゲットの形状とソースのポーズ特性の両方を保持しながら、ソースメッシュのポーズスタイルをターゲットキャラクタに転送することを目的としている。
既存の方法は、ほとんど類似した構造を持つ文字に制限されており、カテゴリーなしの設定に一般化できない(例えば、ヒューマノイドのポーズを四重奏に転送する)。
鍵となる課題は、異なる文字タイプに固有の構造と変換の多様性にある。
これらの問題に対処するために、まず、何百もの異なる文字にまたがる100万スケールのポーズデータセットを構築します。
さらに,カテゴリフリーな3Dポーズ転送のためのカスケード変換モデルであるMimiCATを提案する。
厳密な1対1対応マッピングに頼る代わりに、MimiCATはセマンティックキーポイントラベルを活用して、文字間のフレキシブルな多対多マッチングを可能にする新しいソフト対応を学習する。
次に、ポーズ転送を条件生成プロセスとして定式化し、まずソース変換をソフト対応マッチングによりターゲットに投影し、その後形状条件付き表現を用いて洗練する。
広汎な定性的および定量的実験により、MimiCATは異なる文字間でプラウシブルなポーズを伝達し、狭義のカテゴリー移動(例えば、ヒューマノイドからヒューマノイド)に制限された先行手法よりもはるかに優れていることが示された。
関連論文リスト
- Weakly-supervised 3D Pose Transfer with Keypoints [57.66991032263699]
3Dポーズ転送の主な課題は、1) 異なる文字で同じポーズを行うペアトレーニングデータの欠如、2) ターゲットメッシュからポーズと形状情報を分離すること、3) 異なるトポロジを持つメッシュに適用することの難しさである。
本稿では,これらの課題を克服するためのキーポイントベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-25T12:40:24Z) - MAPConNet: Self-supervised 3D Pose Transfer with Mesh and Point
Contrastive Learning [32.97354536302333]
3次元ポーズ転送は、ソースジオメトリのポーズを、ターゲットアイデンティティを保存したターゲットジオメトリに転送することを目的とした、困難な生成タスクである。
現在のポーズ伝達法は、エンドツーエンドの対応学習を可能にするが、監督のための基礎的真理として望ましい最終的な出力を必要とする。
本稿では、教師なし、半教師なし、あるいは完全に教師付き設定で訓練できる3Dポーズ転送のための新しい自己教師型フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-26T20:42:40Z) - Unsupervised 3D Pose Transfer with Cross Consistency and Dual
Reconstruction [50.94171353583328]
3Dポーズ転送の目標は、アイデンティティ情報を保存しながら、ソースメッシュからターゲットメッシュにポーズを転送することである。
深層学習に基づく手法は、3Dポーズ転送の効率と性能を改善した。
X-DualNetは、教師なしの3Dポーズ転送を可能にするシンプルで効果的なアプローチである。
論文 参考訳(メタデータ) (2022-11-18T15:09:56Z) - Skeleton-free Pose Transfer for Stylized 3D Characters [53.33996932633865]
骨格リグを使わずにスタイリングされた3D文字間でポーズを自動転送する最初の方法を提案する。
そこで本稿では,対象キャラクターを目的のポーズに合わせるために,キャラクタのスキニング重みと変形変形を共同で予測する新しいポーズ伝達ネットワークを提案する。
提案手法は,既存の文字データを一対のポーズとスタイル化された形状で吸収する半教師付き方式で訓練されている。
論文 参考訳(メタデータ) (2022-07-28T20:05:57Z) - Neural Human Deformation Transfer [26.60034186410921]
人間の変形伝達の問題は、異なるキャラクター間でのポーズの再ターゲティングが目的である。
我々は異なるアプローチをとり、キャラクターのポーズを変更することなく、キャラクターのアイデンティティを新しいアイデンティティに変換する。
本研究では,本手法が定量的かつ定性的に,最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-09-03T15:51:30Z) - 3D Human Shape Style Transfer [21.73251261476412]
本稿では,任意の静的な実字体を用いて実動文字体の形状を変更・変更する問題を考察する。
伝統的な解決策は、移動する文字から元の文字の形まで、骨格的なポーズのパラメトリゼーションに依存するポーズ転送戦略に従う。
本稿では,移動キャラクタにソース形状を伝達する代替手法について検討する。
論文 参考訳(メタデータ) (2021-09-03T15:51:30Z) - Human Pose Transfer by Adaptive Hierarchical Deformation [24.70009597455219]
階層的変形レベルが2つある適応型ポーズ転送ネットワークを提案する。
最初のレベルは、ターゲットポーズに沿った人間の意味解析を生成します。
第2のレベルは、セマンティックガイダンスでターゲットポーズにおける最終テクスチャ化された人物画像を生成する。
論文 参考訳(メタデータ) (2020-12-13T01:49:26Z) - Neural Pose Transfer by Spatially Adaptive Instance Normalization [73.04483812364127]
本稿では,最新の画像スタイル転送技術を用いてポーズ転送を解く,最初のニューラルポーズ転送モデルを提案する。
私たちのモデルは、ソースとターゲットメッシュ間の通信を一切必要としません。
実験により, 提案モデルでは, 対象メッシュへの変形を効果的に伝達することができ, 未確認の同一性やメッシュのポーズに対処できる優れた一般化能力を有することが示された。
論文 参考訳(メタデータ) (2020-03-16T14:33:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。