論文の概要: Fast and Robust Face-to-Parameter Translation for Game Character
Auto-Creation
- arxiv url: http://arxiv.org/abs/2008.07132v1
- Date: Mon, 17 Aug 2020 07:45:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 04:02:56.762604
- Title: Fast and Robust Face-to-Parameter Translation for Game Character
Auto-Creation
- Title(参考訳): ゲームキャラクタ自動生成のための高速かつロバストな顔-パラメータ変換
- Authors: Tianyang Shi (1), Zhengxia Zou (2), Yi Yuan (1), Changjie Fan (1) ((1)
NetEase Fuxi AI Lab, (2) University of Michigan)
- Abstract要約: 本稿では,プレイヤーの入力顔写真に基づいてゲーム内キャラクタを生成するゲームキャラクタ自動生成フレームワークを提案する。
提案手法は従来手法よりもロバスト性が高い。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid development of Role-Playing Games (RPGs), players are now
allowed to edit the facial appearance of their in-game characters with their
preferences rather than using default templates. This paper proposes a game
character auto-creation framework that generates in-game characters according
to a player's input face photo. Different from the previous methods that are
designed based on neural style transfer or monocular 3D face reconstruction, we
re-formulate the character auto-creation process in a different point of view:
by predicting a large set of physically meaningful facial parameters under a
self-supervised learning paradigm. Instead of updating facial parameters
iteratively at the input end of the renderer as suggested by previous methods,
which are time-consuming, we introduce a facial parameter translator so that
the creation can be done efficiently through a single forward propagation from
the face embeddings to parameters, with a considerable 1000x computational
speedup. Despite its high efficiency, the interactivity is preserved in our
method where users are allowed to optionally fine-tune the facial parameters on
our creation according to their needs. Our approach also shows better
robustness than previous methods, especially for those photos with head-pose
variance. Comparison results and ablation analysis on seven public face
verification datasets suggest the effectiveness of our method.
- Abstract(参考訳): ロールプレイングゲーム(rpg)の急速な発展に伴い、プレイヤーはデフォルトのテンプレートではなく、ゲーム内のキャラクターの顔の外観を好みで編集できるようになった。
本稿では,プレイヤーの入力顔写真に基づいてゲーム内キャラクタを生成するゲームキャラクタ自動生成フレームワークを提案する。
従来のニューラルスタイルトランスファーや単眼的3d顔再構成法と異なり, 自己教師付き学習パラダイムの下で, 物理的に有意味な顔パラメータの大規模な集合を予測することにより, 文字の自動生成過程を異なる視点で再計算する。
従来提案されていたレンダラーの入力端において, 顔パラメータを反復的に更新する代わりに, 顔埋め込みからパラメータへの単一の前方伝播により, 顔パラメータトランスレータを効率よく作成できるようにし, 計算速度を1000倍に向上させる。
高い効率にもかかわらず、対話性は当社の方法で保持されており、ユーザーは必要に応じて顔のパラメータを微調整することができる。
提案手法は従来手法よりも頑健性が向上し,特に頭部変位のある写真では頑健性が向上した。
7つの顔認証データセットの比較結果とアブレーション分析により,本手法の有効性が示唆された。
関連論文リスト
- FlashFace: Human Image Personalization with High-fidelity Identity Preservation [59.76645602354481]
FlashFaceを使うと、ユーザーは自分の写真を簡単にパーソナライズできる。
我々のアプローチは、高忠実度ID保存とより良い指示に従うことによって、既存の人間の写真カスタマイズ方法と区別できる。
論文 参考訳(メタデータ) (2024-03-25T17:59:57Z) - GSmoothFace: Generalized Smooth Talking Face Generation via Fine Grained
3D Face Guidance [83.43852715997596]
GSmoothFaceは、粒度の細かい3次元顔モデルによってガイドされる、2段階の一般化された話し顔生成モデルである。
スピーカーのアイデンティティを保ちながらスムーズな唇の動きを合成することができる。
定量的および定性的な実験は、リアリズム、唇の同期、視覚的品質の観点から、我々の方法の優位性を確認する。
論文 参考訳(メタデータ) (2023-12-12T16:00:55Z) - MyPortrait: Morphable Prior-Guided Personalized Portrait Generation [19.911068375240905]
Myportraitは、神経ポートレート生成のためのシンプルで汎用的で柔軟なフレームワークである。
提案するフレームワークは,映像駆動型と音声駆動型の両方の顔アニメーションをサポートする。
提案手法はリアルタイムオンライン版と高品質オフライン版を提供する。
論文 参考訳(メタデータ) (2023-12-05T12:05:01Z) - GAN-Avatar: Controllable Personalized GAN-based Human Head Avatar [48.21353924040671]
そこで本稿では,顔表情の正確な追跡を行うことなく,画像から人固有のアニマタブルなアバターを学習することを提案する。
3DMMの表情パラメータから生成モデルの潜在空間へのマッピングを学習する。
この方式により、3次元の外観再構成とアニメーション制御を分離し、画像合成における高忠実度を実現する。
論文 参考訳(メタデータ) (2023-11-22T19:13:00Z) - DreamIdentity: Improved Editability for Efficient Face-identity
Preserved Image Generation [69.16517915592063]
人間の顔の正確な表現を学習するための新しい顔識別エンコーダを提案する。
また、モデルの編集可能性を高めるために、自己拡張編集可能性学習を提案する。
我々の手法は、異なるシーン下でより高速にアイデンティティ保存された画像を生成することができる。
論文 参考訳(メタデータ) (2023-07-01T11:01:17Z) - Face0: Instantaneously Conditioning a Text-to-Image Model on a Face [3.5150821092068383]
顔にテキスト・ツー・イメージ生成モデルを瞬時に条件付ける新しい方法であるFace0を提案する。
アノテーション付き画像のデータセットを包含した顔の埋め込みで拡張し、拡張データセット上で画像生成モデルを訓練する。
提案手法は, 極めてシンプルで, 極めて高速であり, 基礎となるモデルに新たな機能を持たせる。
論文 参考訳(メタデータ) (2023-06-11T09:52:03Z) - Zero-Shot Text-to-Parameter Translation for Game Character Auto-Creation [48.62643177644139]
本稿では,ゼロショットテキスト駆動型ゲームキャラクタ自動生成を実現する新しいテキスト・ツー・パラメータ変換法(T2P)を提案する。
本手法では,参照写真や数百のパラメータを手作業で編集することなく,任意のテキスト記述による鮮やかなゲーム内キャラクタを作成できる。
論文 参考訳(メタデータ) (2023-03-02T14:37:17Z) - Unsupervised Learning Facial Parameter Regressor for Action Unit
Intensity Estimation via Differentiable Renderer [51.926868759681014]
骨駆動型顔モデル(BDFM)に基づいて,異なる視点で顔パラメータを予測する枠組みを提案する。
提案するフレームワークは,特徴抽出器,ジェネレータ,顔パラメータ回帰器から構成される。
論文 参考訳(メタデータ) (2020-08-20T09:49:13Z) - Neutral Face Game Character Auto-Creation via PokerFace-GAN [0.0]
本稿では,ゲーム内キャラクタを1枚の写真で自動生成する問題について検討する。
まず、マルチビューレンダリングの場合、従来の方法よりも柔軟に識別可能な文字を作成します。
次に、敵の訓練を利用して、表現パラメータを識別パラメータから効果的に切り離す。
論文 参考訳(メタデータ) (2020-08-17T08:43:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。