論文の概要: MorphAny3D: Unleashing the Power of Structured Latent in 3D Morphing
- arxiv url: http://arxiv.org/abs/2601.00204v1
- Date: Thu, 01 Jan 2026 04:42:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-05 15:04:33.308157
- Title: MorphAny3D: Unleashing the Power of Structured Latent in 3D Morphing
- Title(参考訳): MorphAny3D:3Dモーフィングにおける構造化潜水剤のパワーの解放
- Authors: Xiaokun Sun, Zeyu Cai, Hao Tang, Ying Tai, Jian Yang, Zhenyu Zhang,
- Abstract要約: MorphAny3Dは、高品質な3Dモーフィングのために構造化ラテント表現を利用するトレーニングフリーのフレームワークである。
我々の重要な洞察は、3Dジェネレータの注意機構の中で、ソースとターゲットのSLAT特徴をインテリジェントにブレンドすることで、プラウシブルな形態素配列を自然に生成するということである。
- 参考スコア(独自算出の注目度): 37.92699516609044
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D morphing remains challenging due to the difficulty of generating semantically consistent and temporally smooth deformations, especially across categories. We present MorphAny3D, a training-free framework that leverages Structured Latent (SLAT) representations for high-quality 3D morphing. Our key insight is that intelligently blending source and target SLAT features within the attention mechanisms of 3D generators naturally produces plausible morphing sequences. To this end, we introduce Morphing Cross-Attention (MCA), which fuses source and target information for structural coherence, and Temporal-Fused Self-Attention (TFSA), which enhances temporal consistency by incorporating features from preceding frames. An orientation correction strategy further mitigates the pose ambiguity within the morphing steps. Extensive experiments show that our method generates state-of-the-art morphing sequences, even for challenging cross-category cases. MorphAny3D further supports advanced applications such as decoupled morphing and 3D style transfer, and can be generalized to other SLAT-based generative models. Project page: https://xiaokunsun.github.io/MorphAny3D.github.io/.
- Abstract(参考訳): 3次元モーフィングは、特にカテゴリ間で、意味的に一貫性があり、時間的に滑らかな変形を生成するのが難しいため、依然として困難である。
MorphAny3Dは、高品質な3DモーフィングのためにStructured Latent (SLAT)表現を利用する、トレーニング不要のフレームワークである。
我々の重要な洞察は、3Dジェネレータの注意機構の中で、ソースとターゲットのSLAT特徴をインテリジェントにブレンドすることで、プラウシブルな形態素配列を自然に生成するということである。
この目的のために、構造的コヒーレンスのためにソースとターゲット情報を融合するMorphing Cross-Attention(MCA)と、先行フレームの特徴を取り入れて時間的一貫性を高めるTFSA(Temporal-Fused Self-Attention)を導入する。
向き補正戦略は、さらに、モーフィングステップ内のポーズあいまいさを緩和する。
大規模実験により, クロスカテゴリの場合においても, 最先端のモーフィングシーケンスが生成されることが明らかとなった。
MorphAny3Dはさらに、疎結合なモーフィングや3Dスタイルの転送のような高度なアプリケーションをサポートし、他のSLATベースの生成モデルに一般化することができる。
プロジェクトページ: https://xiaokunsun.github.io/MorphAny3D.github.io/
関連論文リスト
- FLOWING: Implicit Neural Flows for Structure-Preserving Morphing [5.498230316788923]
FLOWing (FLOW morphing) は、微分ベクトルフローの構成としてワープをリキャストするフレームワークである。
FLOWINGは, より高速な収束により, 最先端の変形品質が得られることを示す。
論文 参考訳(メタデータ) (2025-10-10T16:50:23Z) - GaussianMorphing: Mesh-Guided 3D Gaussians for Semantic-Aware Object Morphing [31.47036497656664]
マルチビュー画像から意味認識型3次元形状とテクスチャ形成のための新しいフレームワークを提案する。
私たちのフレームワークの中核は、3DGaussianをメッシュパッチの再構築にアンカーする統一的な変形戦略です。
提案したTexMorphベンチマークでは,GaussianMorphingは従来の2D/3D法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2025-10-02T14:07:55Z) - Image-Guided Shape-from-Template Using Mesh Inextensibility Constraints [5.504853768307439]
Shape-from-Template (SfT) は、3Dテンプレートを使って画像やビデオから変形物体の3D形状を再構築する手法である。
従来のSfT法では、画像やビデオから3D形状をリアルタイムで再構成するために、画像と3Dテンプレートのテクスチャ間の点対応が必要である。
現代のSfT法では、ディープニューラルネットワークを組み込んで3Dオブジェクトを再構成することで、対応のないアプローチを採用している。
論文 参考訳(メタデータ) (2025-07-30T14:09:39Z) - Textured 3D Regenerative Morphing with 3D Diffusion Prior [29.7508625572437]
テクスチャ化された3Dモーフィングは、2つの3Dオブジェクト間の滑らかで可塑性なシーケンスを生成する。
従来は点対点対応の確立と滑らかな変形軌跡の決定に頼っていた。
本稿では,3次元拡散を用いた3次元再生型モーフィング法を提案する。
論文 参考訳(メタデータ) (2025-02-20T07:02:22Z) - 3Deformer: A Common Framework for Image-Guided Mesh Deformation [27.732389685912214]
ソース3Dメッシュにセマンティック素材とユーザが指定したセマンティックイメージが与えられた場合、3Deformerはソースメッシュを正確に編集することができる。
私たちの3Deformerは素晴らしい結果をもたらし、最先端のレベルに達することができます。
論文 参考訳(メタデータ) (2023-07-19T10:44:44Z) - ARTIC3D: Learning Robust Articulated 3D Shapes from Noisy Web Image
Collections [71.46546520120162]
単眼画像から動物体のような3D関節形状を推定することは、本質的に困難である。
本稿では,スパース画像コレクションから各物体の形状を再構築する自己教師型フレームワークARTIC3Dを提案する。
我々は、剛性部分変換の下で、描画された形状とテクスチャを微調整することで、現実的なアニメーションを作成する。
論文 参考訳(メタデータ) (2023-06-07T17:47:50Z) - MoDA: Modeling Deformable 3D Objects from Casual Videos [84.29654142118018]
神経二元四元系ブレンドスキンニング(NeuDBS)を提案し,スキンを折り畳むことなく3次元点変形を実現する。
異なるフレーム間で2Dピクセルを登録する試みにおいて、標準空間内の3D点を符号化する標準特徴埋め込みの対応性を確立する。
本手法は,ヒトと動物の3Dモデルを,最先端の手法よりも質的,定量的な性能で再構築することができる。
論文 参考訳(メタデータ) (2023-04-17T13:49:04Z) - MorphGANFormer: Transformer-based Face Morphing and De-Morphing [55.211984079735196]
顔変形に対するスタイルGANベースのアプローチが主要な技術である。
本稿では,顔の変形に対する変換器ベースの代替手段を提案し,その利点をStyleGANベースの方法と比較した。
論文 参考訳(メタデータ) (2023-02-18T19:09:11Z) - Deep Non-rigid Structure-from-Motion: A Sequence-to-Sequence Translation Perspective [81.56957468529602]
本稿では,シーケンス・ツー・シーケンス翻訳の観点から,ディープNASfMをモデル化する。
まず,1つのフレームから初期非剛体形状とカメラの動きを推定するために,形状運動予測器を適用した。
そこで我々は,カメラの動きと複雑な非剛体形状をモデル化するためのコンテキストモデリングモジュールを提案する。
論文 参考訳(メタデータ) (2022-04-10T17:13:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。