論文の概要: OHTA: One-shot Hand Avatar via Data-driven Implicit Priors
- arxiv url: http://arxiv.org/abs/2402.18969v1
- Date: Thu, 29 Feb 2024 09:14:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-01 15:34:51.136155
- Title: OHTA: One-shot Hand Avatar via Data-driven Implicit Priors
- Title(参考訳): OHTA:データ駆動型インシシットプリミティブによるワンショットハンドアバター
- Authors: Xiaozheng Zheng, Chao Wen, Zhuo Su, Zeran Xu, Zhaohu Li, Yang Zhao,
Zhou Xue
- Abstract要約: 本稿では,1つの画像から詳細な手札を作成するための新しい手法であるOHTA(One-shot Hand avaTAr)を提案する。
OHTAは、データ駆動の手先を学習し活用することで、このデータ制限問題の本質的な困難に対処する。
- 参考スコア(独自算出の注目度): 11.416017294566451
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we delve into the creation of one-shot hand avatars, attaining
high-fidelity and drivable hand representations swiftly from a single image.
With the burgeoning domains of the digital human, the need for quick and
personalized hand avatar creation has become increasingly critical. Existing
techniques typically require extensive input data and may prove cumbersome or
even impractical in certain scenarios. To enhance accessibility, we present a
novel method OHTA (One-shot Hand avaTAr) that enables the creation of detailed
hand avatars from merely one image. OHTA tackles the inherent difficulties of
this data-limited problem by learning and utilizing data-driven hand priors.
Specifically, we design a hand prior model initially employed for 1) learning
various hand priors with available data and subsequently for 2) the inversion
and fitting of the target identity with prior knowledge. OHTA demonstrates the
capability to create high-fidelity hand avatars with consistent animatable
quality, solely relying on a single image. Furthermore, we illustrate the
versatility of OHTA through diverse applications, encompassing text-to-avatar
conversion, hand editing, and identity latent space manipulation.
- Abstract(参考訳): 本稿では,ワンショット・ハンド・アバターの作成を考察し,1つの画像から高速に高忠実度かつドリブルなハンド表現を実現する。
デジタル人間の急成長する領域によって、手軽でパーソナライズされたアバター作成の必要性はますます重要になっている。
既存の技術は一般的に広範な入力データを必要としており、特定のシナリオでは不適切あるいは非現実的であることを証明している。
アクセシビリティを高めるために,1つの画像から詳細な手用アバターを作成することができる新しい方法OHTA(One-shot Hand avaTAr)を提案する。
OHTAは、データ駆動の手先を学習し活用することで、このデータ制限問題の本質的な困難に対処する。
具体的には、最初に採用された手先モデルを設計する。
1)利用可能なデータを用いて様々な手先を学習し、その後
2) 対象のアイデンティティと事前知識の反転と適合性。
OHTAは、単一の画像にのみ依存して、一貫したアニマタブルな品質の高忠実ハンドアバターを作成する能力を示す。
さらに、テキストからアバターへの変換、手書き編集、識別潜在空間操作を含む多様な応用を通して、OHTAの汎用性を説明する。
関連論文リスト
- HeadGAP: Few-shot 3D Head Avatar via Generalizable Gaussian Priors [24.245586597913082]
本稿では,高忠実かつアニマタブルなロバスト性を持つ数発のインザミルドデータから,新たな3Dヘッドアバター生成手法を提案する。
本稿では,事前学習とアバター生成フェーズからなるフレームワークを提案する。
我々のモデルは、効果的にヘッドプレッシャを活用し、それらを数ショットのパーソナライズに一般化することに成功している。
論文 参考訳(メタデータ) (2024-08-12T09:19:38Z) - HINT: Learning Complete Human Neural Representations from Limited Viewpoints [69.76947323932107]
我々は、限られた視野角から詳細な人間のモデルを学習できるNeRFベースのアルゴリズムを提案する。
その結果,数個の視角からでも完全な人間の再構築が可能となり,性能は15%以上向上した。
論文 参考訳(メタデータ) (2024-05-30T05:43:09Z) - Authentic Hand Avatar from a Phone Scan via Universal Hand Model [34.17663047937003]
AR/VRの没入体験には、手形やテクスチャなどの識別可能な情報をすべて備えた本物の3Dハンドアバターが必要である。
任意のIDの高忠実度3Dハンドメッシュを普遍的に表現できるユニバーサルハンドモデル(UHM)を提案する。
トラッキングとモデリング中に皮膚のすべりに対処する新しい画像マッチング損失関数を提案する。
論文 参考訳(メタデータ) (2024-05-13T17:09:03Z) - MagicMirror: Fast and High-Quality Avatar Generation with a Constrained Search Space [25.24509617548819]
テキストプロンプトを利用した3次元アバター生成とパーソナライズのための新しいフレームワークを提案する。
主要なイノベーションは、フォトリアリスティックなアバター合成の課題を克服することを目的としている。
論文 参考訳(メタデータ) (2024-04-01T17:59:11Z) - FlashFace: Human Image Personalization with High-fidelity Identity Preservation [59.76645602354481]
FlashFaceを使うと、ユーザーは自分の写真を簡単にパーソナライズできる。
我々のアプローチは、高忠実度ID保存とより良い指示に従うことによって、既存の人間の写真カスタマイズ方法と区別できる。
論文 参考訳(メタデータ) (2024-03-25T17:59:57Z) - One2Avatar: Generative Implicit Head Avatar For Few-shot User Adaptation [31.310769289315648]
本稿では,1ユーザあたり1枚または数枚の画像のみを利用した高品質なヘッドアバターを作成するための新しいアプローチを提案する。
我々は2407名の被験者から多視点の表情データセットから3次元アニマタブルなフォトリアリスティックヘッドアバターの生成モデルを学習した。
提案手法は,従来のアバター適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-02-19T07:48:29Z) - StableIdentity: Inserting Anybody into Anywhere at First Sight [57.99693188913382]
一つの顔画像で同一性に一貫性のある再テクスチャ化を可能にするStableIdentityを提案する。
私たちは、1つの画像から学んだアイデンティティを直接、微調整なしでビデオ/3D生成に注入する最初の人です。
論文 参考訳(メタデータ) (2024-01-29T09:06:15Z) - Generalizable One-shot Neural Head Avatar [90.50492165284724]
本研究では,1枚の画像から3次元頭部アバターを再構成し,アニメイトする手法を提案する。
本研究では,一視点画像に基づく識別不能な人物を一般化するだけでなく,顔領域内外における特徴的詳細を捉えるフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-14T22:33:09Z) - Text-Conditional Contextualized Avatars For Zero-Shot Personalization [47.85747039373798]
本研究では,アバターによる画像生成のパーソナライズを可能にするパイプラインを提案する。
私たちのパイプラインはゼロショット、アバターテクスチャ、スタイル非依存で、アバターのトレーニングは一切必要ありません。
大規模な画像データセットを利用して人間の3Dポーズパラメータを学習する方法を初めて示す。
論文 参考訳(メタデータ) (2023-04-14T22:00:44Z) - SignBERT: Pre-Training of Hand-Model-Aware Representation for Sign
Language Recognition [94.30084702921529]
手振りは手話において重要な役割を担っている。
現在の深層学習に基づく手話認識手法は、解釈可能性に欠ける可能性がある。
SLRに先立って手を入れた初の自己教師型事前訓練型SignBERTを導入する。
論文 参考訳(メタデータ) (2021-10-11T16:18:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。