論文の概要: Neutral Face Game Character Auto-Creation via PokerFace-GAN
- arxiv url: http://arxiv.org/abs/2008.07154v1
- Date: Mon, 17 Aug 2020 08:43:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 04:01:43.416768
- Title: Neutral Face Game Character Auto-Creation via PokerFace-GAN
- Title(参考訳): PokerFace-GANによるニュートラルフェイスゲームキャラクタ自動クリーション
- Authors: Tianyang Shi (1), Zhengxia Zou (2), Xinhui Song (1), Zheng Song (1),
Changjian Gu (1), Changjie Fan (1), Yi Yuan (1) ((1) NetEase Fuxi AI Lab, (2)
University of Michigan)
- Abstract要約: 本稿では,ゲーム内キャラクタを1枚の写真で自動生成する問題について検討する。
まず、マルチビューレンダリングの場合、従来の方法よりも柔軟に識別可能な文字を作成します。
次に、敵の訓練を利用して、表現パラメータを識別パラメータから効果的に切り離す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Game character customization is one of the core features of many recent
Role-Playing Games (RPGs), where players can edit the appearance of their
in-game characters with their preferences. This paper studies the problem of
automatically creating in-game characters with a single photo. In recent
literature on this topic, neural networks are introduced to make game engine
differentiable and the self-supervised learning is used to predict facial
customization parameters. However, in previous methods, the expression
parameters and facial identity parameters are highly coupled with each other,
making it difficult to model the intrinsic facial features of the character.
Besides, the neural network based renderer used in previous methods is also
difficult to be extended to multi-view rendering cases. In this paper,
considering the above problems, we propose a novel method named "PokerFace-GAN"
for neutral face game character auto-creation. We first build a differentiable
character renderer which is more flexible than the previous methods in
multi-view rendering cases. We then take advantage of the adversarial training
to effectively disentangle the expression parameters from the identity
parameters and thus generate player-preferred neutral face (expression-less)
characters. Since all components of our method are differentiable, our method
can be easily trained under a multi-task self-supervised learning paradigm.
Experiment results show that our method can generate vivid neutral face game
characters that are highly similar to the input photos. The effectiveness of
our method is verified by comparison results and ablation studies.
- Abstract(参考訳): ゲームキャラクターのカスタマイズは、プレイヤーがゲームのキャラクターの外観を好みで編集できる、最近のロールプレイングゲーム(RPG)の中核的な特徴の1つである。
本稿では,ゲーム内キャラクタを1枚の写真で自動生成する問題について検討する。
この話題に関する最近の文献では、ニューラルネットワークがゲームエンジンを微分可能にし、自己教師付き学習が顔のカスタマイズパラメータの予測に使用される。
しかし、従来の手法では、表情パラメータと顔の識別パラメータは互いに強く結合しており、文字の固有の顔の特徴をモデル化することは困難である。
さらに、従来の方法で使用されるニューラルネットワークベースのレンダラーは、マルチビューレンダリングケースに拡張することも困難である。
本稿では,上記の問題を考慮し,ニュートラルフェイスゲームキャラクタ自動生成のための新しい手法である"PokerFace-GAN"を提案する。
まず、マルチビューレンダリングケースにおいて、従来のメソッドよりも柔軟である、微分可能な文字レンダラを構築した。
次に,相手の学習を活かして,表現パラメータを識別パラメータから効果的に切り離し,プレーヤが予測した中性面(表現なし)の文字を生成する。
本手法の全てのコンポーネントは微分可能であるため,マルチタスクの自己教師付き学習パラダイムの下で容易に学習することができる。
実験の結果,本手法は入力画像と非常に類似した,鮮明な中性面ゲームキャラクタを生成できることがわかった。
本手法の有効性は比較およびアブレーション実験により検証した。
関連論文リスト
- ChatAnything: Facetime Chat with LLM-Enhanced Personas [87.76804680223003]
多様な音声・外観生成のための音声(MoV)とディフューザ(MoD)の混合を提案する。
MoVでは,テキスト音声合成(TTS)アルゴリズムを様々な事前定義された音色で活用する。
近年普及しているテキスト・画像生成技術とトーキングヘッドアルゴリズムを組み合わせることで,音声オブジェクトの生成プロセスの合理化を図る。
論文 参考訳(メタデータ) (2023-11-12T08:29:41Z) - DreamIdentity: Improved Editability for Efficient Face-identity
Preserved Image Generation [69.16517915592063]
人間の顔の正確な表現を学習するための新しい顔識別エンコーダを提案する。
また、モデルの編集可能性を高めるために、自己拡張編集可能性学習を提案する。
我々の手法は、異なるシーン下でより高速にアイデンティティ保存された画像を生成することができる。
論文 参考訳(メタデータ) (2023-07-01T11:01:17Z) - Zero-Shot Text-to-Parameter Translation for Game Character Auto-Creation [48.62643177644139]
本稿では,ゼロショットテキスト駆動型ゲームキャラクタ自動生成を実現する新しいテキスト・ツー・パラメータ変換法(T2P)を提案する。
本手法では,参照写真や数百のパラメータを手作業で編集することなく,任意のテキスト記述による鮮やかなゲーム内キャラクタを作成できる。
論文 参考訳(メタデータ) (2023-03-02T14:37:17Z) - Interpretable Explainability in Facial Emotion Recognition and
Gamification for Data Collection [0.0]
顔の感情認識モデルを訓練するには、大量のデータと高価なアノテーションプロセスが必要である。
我々は,人間の明示的なラベル付けを行なわずに,注釈付き顔感情データを取得するゲーミフィケーション手法を開発した。
プレイヤーの表情認知能力と表情能力は,繰り返しゲームプレイによって著しく向上した。
論文 参考訳(メタデータ) (2022-11-09T09:53:48Z) - Emotion Separation and Recognition from a Facial Expression by
Generating the Poker Face with Vision Transformers [57.67586172996843]
静的な顔画像から外乱非依存の感情を分離し認識するための新しいFERモデルであるポーカー・フェイス・ビジョン・トランスフォーマー(PF-ViT)を提案する。
PF-ViTは、ペア画像なしで対応するポーカーフェイスを生成する。
論文 参考訳(メタデータ) (2022-07-22T13:39:06Z) - Learning Facial Representations from the Cycle-consistency of Face [23.23272327438177]
顔特徴の周期一貫性を自由監督信号として導入し、ラベルのない顔画像から顔の表情を学習する。
この学習は、顔の動きサイクルの制約とアイデンティティのサイクルの制約を重畳することによって実現される。
我々のアプローチは既存の手法と競合し、アンタングル表現に埋め込まれたリッチでユニークな情報を実証する。
論文 参考訳(メタデータ) (2021-08-07T11:30:35Z) - FaceController: Controllable Attribute Editing for Face in the Wild [74.56117807309576]
単純なフィードフォワードネットワークを提案し、高忠実度な顔を生成する。
本手法では,既存かつ容易に把握可能な事前情報を利用することで,野生の多様な顔属性の制御,転送,編集を行うことができる。
本手法では,3Dプリミティブを用いてアイデンティティ,表現,ポーズ,イルミネーションを分離し,地域別スタイルコードを用いてテクスチャとカラーを分離する。
論文 参考訳(メタデータ) (2021-02-23T02:47:28Z) - MeInGame: Create a Game Character Face from a Single Portrait [15.432712351907012]
顔の形状とテクスチャを1枚の肖像画から予測する文字顔の自動生成手法を提案する。
実験の結果,本手法はゲームにおける最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2021-02-04T02:12:19Z) - Unsupervised Learning Facial Parameter Regressor for Action Unit
Intensity Estimation via Differentiable Renderer [51.926868759681014]
骨駆動型顔モデル(BDFM)に基づいて,異なる視点で顔パラメータを予測する枠組みを提案する。
提案するフレームワークは,特徴抽出器,ジェネレータ,顔パラメータ回帰器から構成される。
論文 参考訳(メタデータ) (2020-08-20T09:49:13Z) - Fast and Robust Face-to-Parameter Translation for Game Character
Auto-Creation [0.0]
本稿では,プレイヤーの入力顔写真に基づいてゲーム内キャラクタを生成するゲームキャラクタ自動生成フレームワークを提案する。
提案手法は従来手法よりもロバスト性が高い。
論文 参考訳(メタデータ) (2020-08-17T07:45:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。