論文の概要: 3D Pose Transfer with Correspondence Learning and Mesh Refinement
- arxiv url: http://arxiv.org/abs/2109.15025v1
- Date: Thu, 30 Sep 2021 11:49:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-01 14:51:19.581252
- Title: 3D Pose Transfer with Correspondence Learning and Mesh Refinement
- Title(参考訳): 対応学習とメッシュリファインメントによる3次元ポス転送
- Authors: Chaoyue Song, Jiacheng Wei, Ruibo Li, Fayao Liu and Guosheng Lin
- Abstract要約: 3Dポーズ転送は、最も困難な3D生成タスクの1つである。
本研究では,人間と動物のメッシュの3次元ポーズ伝達を支援するための通信抑制ネットワークを提案する。
- 参考スコア(独自算出の注目度): 41.92922228475176
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D pose transfer is one of the most challenging 3D generation tasks. It aims
to transfer the pose of a source mesh to a target mesh and keep the identity
(e.g., body shape) of the target mesh. Some previous works require key point
annotations to build reliable correspondence between the source and target
meshes, while other methods do not consider any shape correspondence between
sources and targets, which leads to limited generation quality. In this work,
we propose a correspondence-refinement network to help the 3D pose transfer for
both human and animal meshes. The correspondence between source and target
meshes is first established by solving an optimal transport problem. Then, we
warp the source mesh according to the dense correspondence and obtain a coarse
warped mesh. The warped mesh will be better refined with our proposed
\textit{Elastic Instance Normalization}, which is a conditional normalization
layer and can help to generate high-quality meshes. Extensive experimental
results show that the proposed architecture can effectively transfer the poses
from source to target meshes and produce better results with satisfied visual
performance than state-of-the-art methods.
- Abstract(参考訳): 3dポーズ転送は、最も難しい3d生成タスクの1つだ。
これは、ソースメッシュのポーズをターゲットメッシュに転送し、ターゲットメッシュのアイデンティティ(例えば、ボディシェイプ)を保持することを目的としている。
以前の作業では、ソースとターゲットメッシュ間の信頼できる対応を構築するためにキーポイントアノテーションが必要だったが、他の方法はソースとターゲット間の形状対応を考慮せず、生成品質が制限される。
本研究では,人間と動物のメッシュの3次元ポーズ伝達を支援するための通信抑制ネットワークを提案する。
ソースとターゲットメッシュの対応は、まず最適なトランスポート問題を解決することによって確立される。
そして、その密度の高い対応に従ってソースメッシュをワープし、粗いワープメッシュを得る。
これは条件付き正規化層であり、高品質のメッシュを生成するのに役立つ。
広範な実験結果から,提案するアーキテクチャは,ソースからターゲットメッシュへのポーズを効果的に移動でき,最先端の手法よりも良好な視覚性能が得られることがわかった。
関連論文リスト
- Weakly-supervised 3D Pose Transfer with Keypoints [57.66991032263699]
3Dポーズ転送の主な課題は、1) 異なる文字で同じポーズを行うペアトレーニングデータの欠如、2) ターゲットメッシュからポーズと形状情報を分離すること、3) 異なるトポロジを持つメッシュに適用することの難しさである。
本稿では,これらの課題を克服するためのキーポイントベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-25T12:40:24Z) - Unsupervised 3D Pose Transfer with Cross Consistency and Dual
Reconstruction [50.94171353583328]
3Dポーズ転送の目標は、アイデンティティ情報を保存しながら、ソースメッシュからターゲットメッシュにポーズを転送することである。
深層学習に基づく手法は、3Dポーズ転送の効率と性能を改善した。
X-DualNetは、教師なしの3Dポーズ転送を可能にするシンプルで効果的なアプローチである。
論文 参考訳(メタデータ) (2022-11-18T15:09:56Z) - Geometry-Contrastive Transformer for Generalized 3D Pose Transfer [95.56457218144983]
この研究の直感は、与えられたメッシュ間の幾何学的不整合を強力な自己認識機構で知覚することである。
本研究では,グローバルな幾何学的不整合に対する3次元構造的知覚能力を有する新しい幾何学コントラスト変換器を提案する。
本稿では, クロスデータセット3次元ポーズ伝達タスクのための半合成データセットとともに, 潜時等尺正則化モジュールを提案する。
論文 参考訳(メタデータ) (2021-12-14T13:14:24Z) - Mesh Draping: Parametrization-Free Neural Mesh Transfer [92.55503085245304]
Mesh Drapingは、既存のメッシュ構造をある形状から別の形状に転送するニューラルネットワークである。
我々は、徐々に増加する周波数を活用して、ニューラルネットワークの最適化を導くことにより、安定かつ高品質なメッシュ転送を実現することができることを示す。
論文 参考訳(メタデータ) (2021-10-11T17:24:52Z) - A 3D Mesh-based Lifting-and-Projection Network for Human Pose Transfer [25.681557081096805]
本稿では3次元メッシュ空間でポーズ転送を行うためのリフト・アンド・プロジェクションフレームワークを提案する。
以前の人体形状を活用するために、LPNetは体メッシュのトポロジ的情報を利用する。
テクスチャの詳細を保存するために、LPNetが生成した機能を、ソースフォアグラウンドイメージで強化するためにADCNetが導入された。
論文 参考訳(メタデータ) (2021-09-24T03:03:02Z) - Neural Pose Transfer by Spatially Adaptive Instance Normalization [73.04483812364127]
本稿では,最新の画像スタイル転送技術を用いてポーズ転送を解く,最初のニューラルポーズ転送モデルを提案する。
私たちのモデルは、ソースとターゲットメッシュ間の通信を一切必要としません。
実験により, 提案モデルでは, 対象メッシュへの変形を効果的に伝達することができ, 未確認の同一性やメッシュのポーズに対処できる優れた一般化能力を有することが示された。
論文 参考訳(メタデータ) (2020-03-16T14:33:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。