論文の概要: Tag-Based Annotation for Avatar Face Creation
- arxiv url: http://arxiv.org/abs/2308.12642v1
- Date: Thu, 24 Aug 2023 08:35:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-25 14:45:54.457570
- Title: Tag-Based Annotation for Avatar Face Creation
- Title(参考訳): アバター顔形成のためのタグベースアノテーション
- Authors: An Ngo, Daniel Phelps, Derrick Lai, Thanyared Wong, Lucas Mathias,
Anish Shivamurthy, Mustafa Ajmal, Minghao Liu, James Davis
- Abstract要約: タグベースのアノテーションを用いて人間の画像からアバターを生成するモデルを訓練する。
我々の貢献は、アバターの顔生成のためのモデルを訓練するためのタグベースのアノテーションの応用である。
- 参考スコア(独自算出の注目度): 2.498487539723264
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Currently, digital avatars can be created manually using human images as
reference. Systems such as Bitmoji are excellent producers of detailed avatar
designs, with hundreds of choices for customization. A supervised learning
model could be trained to generate avatars automatically, but the hundreds of
possible options create difficulty in securing non-noisy data to train a model.
As a solution, we train a model to produce avatars from human images using
tag-based annotations. This method provides better annotator agreement, leading
to less noisy data and higher quality model predictions. Our contribution is an
application of tag-based annotation to train a model for avatar face creation.
We design tags for 3 different facial facial features offered by Bitmoji, and
train a model using tag-based annotation to predict the nose.
- Abstract(参考訳): 現在、デジタルアバターは人間のイメージを参照として手動で作成できる。
Bitmojiのようなシステムは、詳細なアバターデザインの優れたプロデューサであり、カスタマイズには数百の選択肢がある。
教師付き学習モデルは、自動アバターを生成するためにトレーニングすることができるが、数百の選択肢は、モデルをトレーニングするためのノイズのないデータを確保するのに困難をもたらす。
解決策として,タグベースのアノテーションを用いて人間の画像からアバターを生成するモデルを訓練する。
この手法はより良いアノテータ合意を提供し、ノイズの少ないデータと高品質なモデル予測をもたらす。
私たちの貢献は、アバター顔生成のためのモデルをトレーニングするためのタグベースのアノテーションの適用です。
私たちはbitmojiが提供する3種類の顔特徴のタグを設計し、タグベースのアノテーションを使って鼻を予測するモデルを訓練します。
関連論文リスト
- WildAvatar: Web-scale In-the-wild Video Dataset for 3D Avatar Creation [55.85887047136534]
WildAvatar(ワイルドアバター)は、YouTubeから抽出されたウェブスケールの人間のアバター生成データセットである。
我々は,アバター作成における現実のアプリケーションにおける未探索課題を,データセット上でいくつかの最先端アバター作成手法を評価した。
論文 参考訳(メタデータ) (2024-07-02T11:17:48Z) - GeneAvatar: Generic Expression-Aware Volumetric Head Avatar Editing from a Single Image [89.70322127648349]
本稿では,多種多様な3DMM駆動ヘッドアバターに適用可能な汎用的なアバター編集手法を提案する。
この目的を達成するために、単一の画像から一貫した3D修正フィールドへのリフト2D編集を可能にする新しい表現対応修正生成モデルを設計する。
論文 参考訳(メタデータ) (2024-04-02T17:58:35Z) - One2Avatar: Generative Implicit Head Avatar For Few-shot User Adaptation [31.310769289315648]
本稿では,1ユーザあたり1枚または数枚の画像のみを利用した高品質なヘッドアバターを作成するための新しいアプローチを提案する。
我々は2407名の被験者から多視点の表情データセットから3次元アニマタブルなフォトリアリスティックヘッドアバターの生成モデルを学習した。
提案手法は,従来のアバター適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-02-19T07:48:29Z) - DreamIdentity: Improved Editability for Efficient Face-identity
Preserved Image Generation [69.16517915592063]
人間の顔の正確な表現を学習するための新しい顔識別エンコーダを提案する。
また、モデルの編集可能性を高めるために、自己拡張編集可能性学習を提案する。
我々の手法は、異なるシーン下でより高速にアイデンティティ保存された画像を生成することができる。
論文 参考訳(メタデータ) (2023-07-01T11:01:17Z) - AvatarBooth: High-Quality and Customizable 3D Human Avatar Generation [14.062402203105712]
AvatarBoothはテキストプロンプトや特定の画像を使って高品質な3Dアバターを生成する新しい方法である。
我々の重要な貢献は、二重微調整拡散モデルを用いた正確なアバター生成制御である。
本稿では,3次元アバター生成の粗大な監視を容易にするマルチレゾリューションレンダリング戦略を提案する。
論文 参考訳(メタデータ) (2023-06-16T14:18:51Z) - Text-Conditional Contextualized Avatars For Zero-Shot Personalization [47.85747039373798]
本研究では,アバターによる画像生成のパーソナライズを可能にするパイプラインを提案する。
私たちのパイプラインはゼロショット、アバターテクスチャ、スタイル非依存で、アバターのトレーニングは一切必要ありません。
大規模な画像データセットを利用して人間の3Dポーズパラメータを学習する方法を初めて示す。
論文 参考訳(メタデータ) (2023-04-14T22:00:44Z) - OTAvatar: One-shot Talking Face Avatar with Controllable Tri-plane
Rendering [81.55960827071661]
制御性、一般化性、効率性は、ニューラル暗黙の場で表される顔アバターを構成する主要な目的である。
汎用制御可能な3面描画ソリューションにより顔アバターを構成するワンショット面アバター(OTAvatar)を提案する。
論文 参考訳(メタデータ) (2023-03-26T09:12:03Z) - Tag-based annotation creates better avatars [6.557475524404218]
人間のイメージからアバターを作成することで、ユーザーはデジタルフィギュアをさまざまなスタイルでカスタマイズできる。
Bitmoji、MetaHuman、Google Cartoonsetといった既存のレンダリングシステムは、ユーザーに優れたデザインツールを提供する表現力のあるレンダリングシステムを提供する。
本稿では,アバター生成のためのタグベースのアノテーション手法を提案する。ラベルの直接アノテーションと比較すると,アノテータのアノテータのアノテータが高くなること,機械学習がより一貫性のある予測を生成すること,新たなレンダリングシステムの追加に限界費用がかかること,などが特徴である。
論文 参考訳(メタデータ) (2023-02-14T21:35:16Z) - StylePeople: A Generative Model of Fullbody Human Avatars [59.42166744151461]
パラメトリックメッシュに基づく体モデルとニューラルテクスチャを組み合わせた,新しいタイプのフルボディヒトアバターを提案する。
このようなアバターは衣服や髪型をうまくモデル化できるため、メッシュベースのアプローチでは問題となる。
そこで我々は,画像や映像のデータセットから学習できるアバターの生成モデルを提案する。
論文 参考訳(メタデータ) (2021-04-16T20:43:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。