論文の概要: Learning Anchor Transformations for 3D Garment Animation
- arxiv url: http://arxiv.org/abs/2304.00761v1
- Date: Mon, 3 Apr 2023 07:27:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 16:27:30.479093
- Title: Learning Anchor Transformations for 3D Garment Animation
- Title(参考訳): 3d衣料アニメーションのための学習アンカー変換
- Authors: Fang Zhao, Zekun Li, Shaoli Huang, Junwu Weng, Tianfei Zhou, Guo-Sen
Xie, Jue Wang, Ying Shan
- Abstract要約: 本稿では,アンカーに基づく変形モデル,すなわちアンカーDEFを提案し,身体動作シーケンスから3次元衣料アニメーションを予測する。
メッシュ表面を囲む一連のアンカーを導入し、剛性変換行列の学習を導く。
異なる種類の衣服に対する実験により、アンコールDEFは動作中の3次元衣服の変形予測における最先端性能を達成することが示された。
- 参考スコア(独自算出の注目度): 42.020533427818116
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes an anchor-based deformation model, namely AnchorDEF, to
predict 3D garment animation from a body motion sequence. It deforms a garment
mesh template by a mixture of rigid transformations with extra nonlinear
displacements. A set of anchors around the mesh surface is introduced to guide
the learning of rigid transformation matrices. Once the anchor transformations
are found, per-vertex nonlinear displacements of the garment template can be
regressed in a canonical space, which reduces the complexity of deformation
space learning. By explicitly constraining the transformed anchors to satisfy
the consistencies of position, normal and direction, the physical meaning of
learned anchor transformations in space is guaranteed for better
generalization. Furthermore, an adaptive anchor updating is proposed to
optimize the anchor position by being aware of local mesh topology for learning
representative anchor transformations. Qualitative and quantitative experiments
on different types of garments demonstrate that AnchorDEF achieves the
state-of-the-art performance on 3D garment deformation prediction in motion,
especially for loose-fitting garments.
- Abstract(参考訳): 本稿では,アンカーに基づく変形モデル,すなわちアンカーDEFを提案し,身体動作シーケンスから3次元衣料アニメーションを予測する。
これは、余分な非線形変位を持つ剛性変換の混合により、衣料メッシュテンプレートを変形させる。
メッシュ表面を囲む一連のアンカーは、剛性変換行列の学習を導くために導入された。
アンカー変換が見つかると、衣服テンプレートの頂点ごとの非線形変位を正準空間に回帰させることができるため、変形空間学習の複雑さが軽減される。
変換されたアンカーを位置、正規および方向の成分を満たすように明示的に制約することにより、空間における学習されたアンカー変換の物理的意味がより一般化するために保証される。
さらに,代表的アンカー変換を学習するために,局所メッシュトポロジを意識してアンカー位置を最適化するアダプティブアンカー更新を提案する。
異なる種類の衣服の質的および定量的実験により、アンコールDEFは、特にゆるやかな衣服において、動作中の3次元衣服の変形予測における最先端の性能を達成することを示した。
関連論文リスト
- Equivariant Spatio-Temporal Self-Supervision for LiDAR Object Detection [37.142470149311904]
本研究では,空間的および時間的拡張を両立させることにより,時間的同変学習の枠組みを提案する。
既存の等変および不変のアプローチを多くの設定で上回る3次元物体検出のための事前学習法を示す。
論文 参考訳(メタデータ) (2024-04-17T20:41:49Z) - Learning SO(3)-Invariant Semantic Correspondence via Local Shape Transform [62.27337227010514]
RISTと呼ばれる局所形状変換を用いた自己教師型回転不変3次元対応学習システムを提案する。
RISTは、挑戦的なクラス内変分と任意の向きの下でも、形状間の密接な対応を確立することを学ぶ。
RISTは、任意の回転点雲対に与えられる3D部分ラベル転送とセマンティックキーポイント転送の最先端性能を示す。
論文 参考訳(メタデータ) (2024-04-17T08:09:25Z) - Mesh-based Gaussian Splatting for Real-time Large-scale Deformation [58.18290393082119]
ユーザがリアルタイムで大きな変形で暗黙の表現を直接変形または操作することは困難である。
我々は,インタラクティブな変形を可能にする新しいGSベースの手法を開発した。
提案手法は,高いフレームレートで良好なレンダリング結果を維持しつつ,高品質な再構成と効率的な変形を実現する。
論文 参考訳(メタデータ) (2024-02-07T12:36:54Z) - Learning Modulated Transformation in GANs [69.95217723100413]
生成逆数ネットワーク(GAN)のジェネレータに、変調変換モジュール(Modulated transformation module, MTM)と呼ばれるプラグアンドプレイモジュールを装備する。
MTMは、可変位置で畳み込み操作を適用可能な潜在符号の制御下で空間オフセットを予測する。
挑戦的なTaiChiデータセット上での人為的な生成に向けて、StyleGAN3のFIDを21.36から13.60に改善し、変調幾何変換の学習の有効性を実証した。
論文 参考訳(メタデータ) (2023-08-29T17:51:22Z) - MeT: A Graph Transformer for Semantic Segmentation of 3D Meshes [10.667492516216887]
本稿では3次元メッシュのセマンティックセグメンテーションのためのトランスフォーマーに基づく手法を提案する。
隣接行列のラプラシア固有ベクトルを用いて位置符号化を行う。
提案手法は,3次元メッシュのセマンティックセグメンテーションにおける最先端の性能を示す。
論文 参考訳(メタデータ) (2023-07-03T15:45:14Z) - Neural Shape Deformation Priors [14.14047635248036]
本稿では,新しい形状操作法であるニューラル・シェイプ・フォーメーション・プレファレンスを提案する。
形状の幾何学的性質に基づいて変形挙動を学習する。
本手法は, 難解な変形に対して適用可能であり, 未知の変形に対して良好に一般化できる。
論文 参考訳(メタデータ) (2022-10-11T17:03:25Z) - Shape-Pose Disentanglement using SE(3)-equivariant Vector Neurons [59.83721247071963]
本研究では,点雲を標準形状表現に符号化するための教師なし手法を提案する。
エンコーダは安定で一貫性があり、形状のエンコーダは純粋にポーズ不変である。
抽出された回転と変換は、同じクラスの異なる入力形状を共通の標準ポーズに意味的に整合させることができる。
論文 参考訳(メタデータ) (2022-04-03T21:00:44Z) - Geometry-Contrastive Transformer for Generalized 3D Pose Transfer [95.56457218144983]
この研究の直感は、与えられたメッシュ間の幾何学的不整合を強力な自己認識機構で知覚することである。
本研究では,グローバルな幾何学的不整合に対する3次元構造的知覚能力を有する新しい幾何学コントラスト変換器を提案する。
本稿では, クロスデータセット3次元ポーズ伝達タスクのための半合成データセットとともに, 潜時等尺正則化モジュールを提案する。
論文 参考訳(メタデータ) (2021-12-14T13:14:24Z) - DeepMetaHandles: Learning Deformation Meta-Handles of 3D Meshes with
Biharmonic Coordinates [31.317344570058058]
DeepMetaHandlesはメッシュ変形に基づく3D条件生成モデルである。
私たちは、与えられたハンドルの組み合わせとして表現される各形状のメタハンドルのセットを学びます。
新しい変形は、特定の範囲のメタハンドルの係数をサンプリングすることによって生成することができる。
論文 参考訳(メタデータ) (2021-02-18T01:31:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。