論文の概要: Tag-based annotation creates better avatars
- arxiv url: http://arxiv.org/abs/2302.07354v1
- Date: Tue, 14 Feb 2023 21:35:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-16 16:30:29.317339
- Title: Tag-based annotation creates better avatars
- Title(参考訳): タグベースのアノテーションは、より良いアバターを作る
- Authors: Minghao Liu, Zeyu Cheng, Shen Sang, Jing Liu, James Davis
- Abstract要約: 人間のイメージからアバターを作成することで、ユーザーはデジタルフィギュアをさまざまなスタイルでカスタマイズできる。
Bitmoji、MetaHuman、Google Cartoonsetといった既存のレンダリングシステムは、ユーザーに優れたデザインツールを提供する表現力のあるレンダリングシステムを提供する。
本稿では,アバター生成のためのタグベースのアノテーション手法を提案する。ラベルの直接アノテーションと比較すると,アノテータのアノテータのアノテータが高くなること,機械学習がより一貫性のある予測を生成すること,新たなレンダリングシステムの追加に限界費用がかかること,などが特徴である。
- 参考スコア(独自算出の注目度): 6.557475524404218
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Avatar creation from human images allows users to customize their digital
figures in different styles. Existing rendering systems like Bitmoji,
MetaHuman, and Google Cartoonset provide expressive rendering systems that
serve as excellent design tools for users. However, twenty-plus parameters,
some including hundreds of options, must be tuned to achieve ideal results.
Thus it is challenging for users to create the perfect avatar. A machine
learning model could be trained to predict avatars from images, however the
annotators who label pairwise training data have the same difficulty as users,
causing high label noise. In addition, each new rendering system or version
update requires thousands of new training pairs. In this paper, we propose a
Tag-based annotation method for avatar creation. Compared to direct annotation
of labels, the proposed method: produces higher annotator agreements, causes
machine learning to generates more consistent predictions, and only requires a
marginal cost to add new rendering systems.
- Abstract(参考訳): 人間の画像からアバターを作成すれば、ユーザーはデジタル図形を異なるスタイルでカスタマイズできる。
Bitmoji、MetaHuman、Google Cartoonsetといった既存のレンダリングシステムは、ユーザーに優れたデザインツールを提供する表現力のあるレンダリングシステムを提供する。
しかし、理想的な結果を得るためには、数百のオプションを含む20以上のパラメータをチューニングする必要がある。
したがって、ユーザーが完璧なアバターを作るのは難しい。
機械学習モデルは、画像からアバターを予測するように訓練することができるが、ペアでトレーニングデータをラベル付けする注釈家は、ユーザーと同じ難易度を持ち、高いラベルノイズを引き起こす。
さらに、新しいレンダリングシステムやバージョンアップデートには、何千ものトレーニングペアが必要になる。
本稿では,アバター生成のためのタグベースのアノテーション手法を提案する。
ラベルの直接アノテーションと比較して、提案手法は、より高いアノテーションアグリーメントを生成し、機械学習によりより一貫した予測を生成し、新しいレンダリングシステムを追加するための限界コストだけを必要とする。
関連論文リスト
- WildAvatar: Web-scale In-the-wild Video Dataset for 3D Avatar Creation [55.85887047136534]
WildAvatar(ワイルドアバター)は、YouTubeから抽出されたウェブスケールの人間のアバター生成データセットである。
我々は,アバター作成における現実のアプリケーションにおける未探索課題を,データセット上でいくつかの最先端アバター作成手法を評価した。
論文 参考訳(メタデータ) (2024-07-02T11:17:48Z) - X-Oscar: A Progressive Framework for High-quality Text-guided 3D Animatable Avatar Generation [63.74194950823133]
X-Oscarはテキストプロンプトから高品質なアニマタブルアバターを生成するためのプログレッシブフレームワークである。
過飽和に対処するために、トレーニング中にアバターを適応分布として表現する適応変分法を導入する。
Avatar-aware Score Distillation Smpling (ASDS) も提案する。
論文 参考訳(メタデータ) (2024-05-02T02:30:39Z) - MagicMirror: Fast and High-Quality Avatar Generation with a Constrained Search Space [25.24509617548819]
テキストプロンプトを利用した3次元アバター生成とパーソナライズのための新しいフレームワークを提案する。
主要なイノベーションは、フォトリアリスティックなアバター合成の課題を克服することを目的としている。
論文 参考訳(メタデータ) (2024-04-01T17:59:11Z) - One2Avatar: Generative Implicit Head Avatar For Few-shot User Adaptation [31.310769289315648]
本稿では,1ユーザあたり1枚または数枚の画像のみを利用した高品質なヘッドアバターを作成するための新しいアプローチを提案する。
我々は2407名の被験者から多視点の表情データセットから3次元アニマタブルなフォトリアリスティックヘッドアバターの生成モデルを学習した。
提案手法は,従来のアバター適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-02-19T07:48:29Z) - Tag-Based Annotation for Avatar Face Creation [2.498487539723264]
タグベースのアノテーションを用いて人間の画像からアバターを生成するモデルを訓練する。
我々の貢献は、アバターの顔生成のためのモデルを訓練するためのタグベースのアノテーションの応用である。
論文 参考訳(メタデータ) (2023-08-24T08:35:12Z) - OTAvatar: One-shot Talking Face Avatar with Controllable Tri-plane
Rendering [81.55960827071661]
制御性、一般化性、効率性は、ニューラル暗黙の場で表される顔アバターを構成する主要な目的である。
汎用制御可能な3面描画ソリューションにより顔アバターを構成するワンショット面アバター(OTAvatar)を提案する。
論文 参考訳(メタデータ) (2023-03-26T09:12:03Z) - SwiftAvatar: Efficient Auto-Creation of Parameterized Stylized Character
on Arbitrary Avatar Engines [34.645129752596915]
我々は,新しいアバター自動作成フレームワークであるSwiftAvatarを提案する。
我々は、アバターベクトルとその対応する現実的な顔からなる高品質なデータをできるだけ多く合成する。
実験では2つの異なるアバターエンジンにおけるSwiftAvatarの有効性と効率を実証した。
論文 参考訳(メタデータ) (2023-01-19T16:14:28Z) - AgileAvatar: Stylized 3D Avatar Creation via Cascaded Domain Bridging [12.535634029277212]
高品質な3Dアバターを作成するための,新しい自己教師型学習フレームワークを提案する。
その結果,従来の作業よりもはるかに高い選好スコアが得られ,手作業による作成に近い結果が得られた。
論文 参考訳(メタデータ) (2022-11-15T00:43:45Z) - Learning to Prompt for Vision-Language Models [82.25005817904027]
視覚言語による事前学習が表現学習の有望な代替手段として登場した。
画像と離散ラベルを使って、視覚的な概念と見なされる一連の重みを学習する伝統から、2つの異なるエンコーダのための画像と生のテキストの整列へと移行する。
このようなパラダイムは、より広範な監視源の恩恵を受け、下流タスクへのゼロショット転送を可能にします。
論文 参考訳(メタデータ) (2021-09-02T17:57:31Z) - Towards Good Practices for Efficiently Annotating Large-Scale Image
Classification Datasets [90.61266099147053]
多数の画像の分類ラベルを収集するための効率的なアノテーション戦略を検討する。
人間のラベリング作業を最小化するための修正とベストプラクティスを提案します。
ImageNet100の125kイメージサブセットのシミュレーション実験では、平均で0.35のアノテーションで80%のトップ-1の精度でアノテートできることが示されている。
論文 参考訳(メタデータ) (2021-04-26T16:29:32Z) - StylePeople: A Generative Model of Fullbody Human Avatars [59.42166744151461]
パラメトリックメッシュに基づく体モデルとニューラルテクスチャを組み合わせた,新しいタイプのフルボディヒトアバターを提案する。
このようなアバターは衣服や髪型をうまくモデル化できるため、メッシュベースのアプローチでは問題となる。
そこで我々は,画像や映像のデータセットから学習できるアバターの生成モデルを提案する。
論文 参考訳(メタデータ) (2021-04-16T20:43:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。