論文の概要: LISA: Learning Implicit Shape and Appearance of Hands
- arxiv url: http://arxiv.org/abs/2204.01695v1
- Date: Mon, 4 Apr 2022 17:59:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-05 15:58:48.482464
- Title: LISA: Learning Implicit Shape and Appearance of Hands
- Title(参考訳): LISA:手の形と外観を学習する
- Authors: Enric Corona, Tomas Hodan, Minh Vo, Francesc Moreno-Noguer, Chris
Sweeney, Richard Newcombe, Lingni Ma
- Abstract要約: そこで本論文では,LISA という人間の手のドーイット・オール・ニューラルモデルを提案する。
このモデルは、正確な手の形と外観をキャプチャし、任意の対象に一般化し、密集した表面対応を提供し、野生の画像から再構成し、容易にアニメーション化することができる。
- 参考スコア(独自算出の注目度): 33.477530463242275
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposes a do-it-all neural model of human hands, named LISA. The
model can capture accurate hand shape and appearance, generalize to arbitrary
hand subjects, provide dense surface correspondences, be reconstructed from
images in the wild and easily animated. We train LISA by minimizing the shape
and appearance losses on a large set of multi-view RGB image sequences
annotated with coarse 3D poses of the hand skeleton. For a 3D point in the hand
local coordinate, our model predicts the color and the signed distance with
respect to each hand bone independently, and then combines the per-bone
predictions using predicted skinning weights. The shape, color and pose
representations are disentangled by design, allowing to estimate or animate
only selected parameters. We experimentally demonstrate that LISA can
accurately reconstruct a dynamic hand from monocular or multi-view sequences,
achieving a noticeably higher quality of reconstructed hand shapes compared to
baseline approaches. Project page:
https://www.iri.upc.edu/people/ecorona/lisa/.
- Abstract(参考訳): 本稿では,人間の手におけるdo-it-allニューラルモデルであるlisaを提案する。
モデルは、正確な手の形と外観をキャプチャし、任意の手対象に一般化し、密度の高い表面対応を提供し、野生の画像から再構成でき、簡単にアニメーションすることができる。
手の骨格の粗い3Dポーズを付加した多視点RGB画像列の形状と外観損失を最小化してLISAを訓練する。
手指の局所座標における3次元点について,本モデルは各手指骨に対する色と符号付き距離を独立に予測し,予測したスキンウェイトを用いて骨ごとの予測と組み合わせる。
形状、色、ポーズの表現はデザインによって切り離され、選択されたパラメータのみを推定またはアニメーションすることができる。
LISAは単眼または多視野の配列から動的ハンドを正確に再構成できることを実験的に証明し、ベースラインのアプローチに比べて明らかに高い品質の復元手形を実現する。
プロジェクトページ: https://www.iri.upc.edu/people/ecorona/lisa/
関連論文リスト
- Towards Human-Level 3D Relative Pose Estimation: Generalizable, Training-Free, with Single Reference [62.99706119370521]
人間は、単一のクエリ参照イメージペアのみを与えられたラベル/トレーニングなしで、目に見えないオブジェクトの相対的なポーズを容易に推論することができる。
そこで,本研究では,RGB-D参照から2.5D形状のRGB-D参照,オフザシェルフ微分可能なRGB-D参照,DINOv2のような事前学習モデルからのセマンティックキューを用いた3D一般化可能な相対ポーズ推定手法を提案する。
論文 参考訳(メタデータ) (2024-06-26T16:01:10Z) - HandNeRF: Neural Radiance Fields for Animatable Interacting Hands [122.32855646927013]
神経放射場(NeRF)を用いて手の動きを正確に再現する新しい枠組みを提案する。
我々は,提案するHandNeRFのメリットを検証するための広範囲な実験を行い,その成果を報告する。
論文 参考訳(メタデータ) (2023-03-24T06:19:19Z) - NIMBLE: A Non-rigid Hand Model with Bones and Muscles [41.19718491215149]
NIMBLEは、欠落鍵成分を含む新しいパラメトリックハンドモデルである。
NIMBLEは、三角形のメッシュとして20の骨、四面体メッシュとして7つの筋肉群、皮膚メッシュからなる。
NIMBLEをモデリング、レンダリング、視覚的推論タスクに適用する。
論文 参考訳(メタデータ) (2022-02-09T15:57:21Z) - imGHUM: Implicit Generative Models of 3D Human Shape and Articulated
Pose [42.4185273307021]
人間の3次元形状とポーズの合成モデルImGHUMについて述べる。
人間の全身をゼロレベルの関数として暗黙的にモデル化し、明示的なテンプレートメッシュを使用しない。
論文 参考訳(メタデータ) (2021-08-24T17:08:28Z) - Learning to Disambiguate Strongly Interacting Hands via Probabilistic
Per-pixel Part Segmentation [84.28064034301445]
自己相似性と、それぞれの手にピクセル観察を割り当てるあいまいさは、最終的な3Dポーズエラーの大きな原因である。
1つの単眼画像から2つの手の3次元ポーズを推定する新しい手法であるDIGITを提案する。
提案手法は,InterHand2.6Mデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2021-07-01T13:28:02Z) - Monocular Real-time Full Body Capture with Inter-part Correlations [66.22835689189237]
本稿では,体と手の形状と運動を1色画像から動的3次元顔モデルと共に推定する,実時間フルボディキャプチャの最初の手法を提案する。
提案手法では,体と手の相関を高い計算効率で活用する新しいニューラルネットワークアーキテクチャを用いる。
論文 参考訳(メタデータ) (2020-12-11T02:37:56Z) - Learning an Animatable Detailed 3D Face Model from In-The-Wild Images [50.09971525995828]
本研究では, 実物的詳細と実物的画像から3次元顔レグレッサーを共同学習する第1の手法を提案する。
DECAモデルは、低次元の潜時表現からUV変位マップを堅牢に生成するように訓練されています。
本稿では,人固有の細部と表情依存のしわを区別する新しい細部一貫性損失を提案する。
論文 参考訳(メタデータ) (2020-12-07T19:30:45Z) - Self-Supervised 3D Human Pose Estimation via Part Guided Novel Image
Synthesis [72.34794624243281]
ラベルのないビデオフレームからバリエーションを分離する自己教師付き学習フレームワークを提案する。
3Dポーズと空間部分マップの表現ギャップを埋める、微分可能な形式化により、多様なカメラの動きを持つビデオで操作できる。
論文 参考訳(メタデータ) (2020-04-09T07:55:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。