論文の概要: Camera-Space Hand Mesh Recovery via Semantic Aggregation and Adaptive
2D-1D Registration
- arxiv url: http://arxiv.org/abs/2103.02845v1
- Date: Thu, 4 Mar 2021 05:46:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-05 14:58:43.377370
- Title: Camera-Space Hand Mesh Recovery via Semantic Aggregation and Adaptive
2D-1D Registration
- Title(参考訳): セマンティックアグリゲーションとアダプティブ2D-1Dレジストレーションによるカメラ空間ハンドメッシュの回復
- Authors: Xingyu Chen, Yufeng Liu, Chongyang Ma, Jianlong Chang, Huayan Wang,
Tian Chen, Xiaoyan Guo, Pengfei Wan, Wen Zheng
- Abstract要約: カメラ空間メッシュリカバリを2つのサブタスク、すなわちルート相対メッシュリカバリとルートリカバリに分割します。
ルート関係メッシュリカバリタスクでは,関節間の意味関係を利用して2次元キューから3次元メッシュを生成する。
根回収タスクでは、生成した3Dメッシュを2Dキューに戻すことにより、根位置をカメラ空間に登録する。
- 参考スコア(独自算出の注目度): 24.06587611582698
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent years have witnessed significant progress in 3D hand mesh recovery.
Nevertheless, because of the intrinsic 2D-to-3D ambiguity, recovering
camera-space 3D information from a single RGB image remains challenging. To
tackle this problem, we divide camera-space mesh recovery into two sub-tasks,
i.e., root-relative mesh recovery and root recovery. First, joint landmarks and
silhouette are extracted from a single input image to provide 2D cues for the
3D tasks. In the root-relative mesh recovery task, we exploit semantic
relations among joints to generate a 3D mesh from the extracted 2D cues. Such
generated 3D mesh coordinates are expressed relative to a root position, i.e.,
wrist of the hand. In the root recovery task, the root position is registered
to the camera space by aligning the generated 3D mesh back to 2D cues, thereby
completing camera-space 3D mesh recovery. Our pipeline is novel in that (1) it
explicitly makes use of known semantic relations among joints and (2) it
exploits 1D projections of the silhouette and mesh to achieve robust
registration. Extensive experiments on popular datasets such as FreiHAND, RHD,
and Human3.6M demonstrate that our approach achieves state-of-the-art
performance on both root-relative mesh recovery and root recovery. Our code is
publicly available at https://github.com/SeanChenxy/HandMesh.
- Abstract(参考訳): 近年,3dハンドメッシュの回復が著しい進展を遂げている。
しかし、本質的な2Dから3Dの曖昧さのために、単一のRGB画像からカメラ空間の3D情報を回復することは困難のままです。
この問題に対処するため、カメラ空間メッシュ回復を2つのサブタスク、すなわちルート相対メッシュ回復とルート回復に分割する。
まず、単一の入力画像からジョイントランドマークとシルエットを抽出し、3Dタスクに2Dキューを提供します。
ルート関係メッシュ回収タスクでは,ジョイント間の意味関係を利用して抽出した2次元キューから3次元メッシュを生成する。
このような生成された3Dメッシュ座標は、手首というルート位置に対して表現される。
ルート回収タスクでは、生成した3Dメッシュを2Dキューに戻すことにより、カメラ空間にルート位置を登録し、カメラ空間の3Dメッシュ回復を完了させる。
このパイプラインは,(1)関節間の既知の意味関係を明示的に利用し,(2)シルエットとメッシュの1次元投影を利用してロバストな登録を実現している。
FreiHAND、RHD、Human3.6Mなどの一般的なデータセットに関する広範な実験は、私たちのアプローチがルート相対メッシュリカバリとルートリカバリの両方で最先端のパフォーマンスを達成することを実証しています。
私たちのコードはhttps://github.com/SeanChenxy/HandMeshで公開されています。
関連論文リスト
- In-Hand 3D Object Reconstruction from a Monocular RGB Video [17.31419675163019]
我々の研究は、静止RGBカメラの前で手で保持・回転する3Dオブジェクトを再構築することを目的としている。
暗黙の神経表現を用いて、多視点画像からジェネリックハンドヘルドオブジェクトの形状を復元する従来の手法は、オブジェクトの可視部分において魅力的な結果を得た。
論文 参考訳(メタデータ) (2023-12-27T06:19:25Z) - Sampling is Matter: Point-guided 3D Human Mesh Reconstruction [0.0]
本稿では,1枚のRGB画像から3次元メッシュ再構成を行うための簡易かつ強力な手法を提案する。
評価実験の結果,提案手法は3次元メッシュ再構成の性能を効率よく向上することが示された。
論文 参考訳(メタデータ) (2023-04-19T08:45:26Z) - SSR-2D: Semantic 3D Scene Reconstruction from 2D Images [54.46126685716471]
本研究では,3Dアノテーションを使わずにセマンティックなシーン再構成を行う中心的な3Dシーンモデリングタスクについて検討する。
提案手法の鍵となる考え方は,不完全な3次元再構成と対応するRGB-D画像の両方を用いたトレーニング可能なモデルの設計である。
本研究では,2つの大規模ベンチマークデータセットであるMatterPort3DとScanNetに対して,セマンティックシーン補完の最先端性能を実現する。
論文 参考訳(メタデータ) (2023-02-07T17:47:52Z) - Self-Supervised Geometry-Aware Encoder for Style-Based 3D GAN Inversion [115.82306502822412]
StyleGANは、画像インバージョンと潜時編集による2次元顔再構成とセマンティック編集において大きな進歩を遂げている。
対応する汎用的な3D GANインバージョンフレームワークがまだ欠けており、3D顔再構成とセマンティック編集の応用が制限されている。
本研究では,その3次元形状と詳細なテクスチャを忠実に復元するために,単一の顔画像から潜伏コードを予測する3D GAN逆変換の課題について検討する。
論文 参考訳(メタデータ) (2022-12-14T18:49:50Z) - Monocular 3D Object Reconstruction with GAN Inversion [122.96094885939146]
MeshInversionはテクスチャ化された3Dメッシュの再構築を改善するための新しいフレームワークである。
これは、3Dテクスチャメッシュ合成のために事前訓練された3D GANの生成前を利用する。
本フレームワークは,観察部と観察部の両方で一貫した形状とテクスチャを有する忠実な3次元再構成を実現する。
論文 参考訳(メタデータ) (2022-07-20T17:47:22Z) - Deep Hybrid Self-Prior for Full 3D Mesh Generation [57.78562932397173]
本稿では,深部ニューラルネットワークにおける2D-3Dのハイブリッドな自己優先性を利用して,幾何学的品質を著しく向上する手法を提案する。
特に,まず3次元自己優先型3次元畳み込みニューラルネットワークを用いて初期メッシュを生成し,次いで2次元紫外線アトラスに3次元情報と色情報をエンコードする。
本手法は,スパース入力から高品質な3次元テクスチャメッシュモデルを復元し,テクスチャ品質とテクスチャ品質の両面で最先端の手法より優れている。
論文 参考訳(メタデータ) (2021-08-18T07:44:21Z) - PC-HMR: Pose Calibration for 3D Human Mesh Recovery from 2D
Images/Videos [47.601288796052714]
我々は2つの新しいPoseフレームワーク、すなわちSerial PC-HMRとParallel PC-HMRを開発した。
当社のフレームワークは、データ駆動学習と幾何学的モデリングの汎用的かつ補完的な統合に基づいています。
我々は一般的なベンチマーク(Human3.6M, 3DPW, SURREAL)について広範な実験を行い、PC-HMRフレームワークがSOTA結果を達成する。
論文 参考訳(メタデータ) (2021-03-16T12:12:45Z) - Do 2D GANs Know 3D Shape? Unsupervised 3D shape reconstruction from 2D
Image GANs [156.1209884183522]
GANのような最先端の2D生成モデルは、自然像多様体のモデリングにおいて前例のない品質を示している。
本稿では,RGB画像のみをトレーニングした市販の2D GANから3次元幾何学的手がかりを直接マイニングする試みについて紹介する。
論文 参考訳(メタデータ) (2020-11-02T09:38:43Z) - 3D Human Mesh Regression with Dense Correspondence [95.92326689172877]
単一の2D画像から人体の3Dメッシュを推定することは、拡張現実や人間とロボットのインタラクションといった多くのアプリケーションにおいて重要なタスクである。
前者は畳み込みニューラルネットワーク(CNN)を用いて抽出した大域的画像特徴から3Dメッシュを再構成した。
本稿では,メッシュとUV空間の局所像特徴との密接な対応性を明確に確立する,DecoMRというモデルフリーな3次元メッシュ推定フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T08:50:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。