論文の概要: Motion Transfer-Enhanced StyleGAN for Generating Diverse Macaque Facial Expressions
- arxiv url: http://arxiv.org/abs/2511.16711v1
- Date: Thu, 20 Nov 2025 07:30:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-24 18:08:18.768273
- Title: Motion Transfer-Enhanced StyleGAN for Generating Diverse Macaque Facial Expressions
- Title(参考訳): 運動伝達強化型スタイルGANによる多面顔表情生成
- Authors: Takuya Igaue, Catia Correia-Caeiro, Akito Yoshida, Takako Miyabe-Nishiwaki, Ryusuke Hayashi,
- Abstract要約: スタイルベース生成画像モデル(StyleGAN2)を用いたマカク猿の表情生成手法を提案する。
提案手法は,複数のマカク人に対して多様な表情を生成できることを示す。
本モデルは,特定のスタイルパラメータが異なる顔の動きに対応するスタイルベースの画像編集に有効である。
- 参考スコア(独自算出の注目度): 0.3914676152740142
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generating animal faces using generative AI techniques is challenging because the available training images are limited both in quantity and variation, particularly for facial expressions across individuals. In this study, we focus on macaque monkeys, widely studied in systems neuroscience and evolutionary research, and propose a method to generate their facial expressions using a style-based generative image model (i.e., StyleGAN2). To address data limitations, we implemented: 1) data augmentation by synthesizing new facial expression images using a motion transfer to animate still images with computer graphics, 2) sample selection based on the latent representation of macaque faces from an initially trained StyleGAN2 model to ensure the variation and uniform sampling in training dataset, and 3) loss function refinement to ensure the accurate reproduction of subtle movements, such as eye movements. Our results demonstrate that the proposed method enables the generation of diverse facial expressions for multiple macaque individuals, outperforming models trained solely on original still images. Additionally, we show that our model is effective for style-based image editing, where specific style parameters correspond to distinct facial movements. These findings underscore the model's potential for disentangling motion components as style parameters, providing a valuable tool for research on macaque facial expressions.
- Abstract(参考訳): 生成的AI技術を用いて動物の顔を生成することは、利用可能なトレーニング画像が量とバリエーションの両方に制限されているため、難しい。
本研究では,脳神経科学と進化研究で広く研究されているマカクザルに着目し,スタイルベース生成画像モデル(StyleGAN2)を用いた表情生成法を提案する。
データ制限に対処するため、我々は次のように実装した。
1)静止画をコンピュータグラフィックスでアニメーション化するためにモーショントランスファーを用いた新しい表情画像の合成によるデータ拡張。
2)初期訓練されたStyleGAN2モデルから,マカク顔の潜時表現に基づくサンプル選択を行い,トレーニングデータセットの変動と均一なサンプリングを確実にする。
3) 眼球運動などの微妙な動きの正確な再現を確保するために, 失明機能の改良を行った。
提案手法により,複数のマカク人を対象とした多様な表情生成が可能であり,本来の静止画像にのみ訓練されたモデルよりも優れていた。
さらに,我々のモデルは,特定のスタイルパラメータが異なる顔の動きに対応するようなスタイルベースの画像編集に有効であることを示す。
これらの知見は、モデルが運動成分をスタイルパラメータとして切り離す可能性を強調しており、マカクの表情の研究に有用なツールとなっている。
関連論文リスト
- GPTFace: Generative Pre-training of Facial-Linguistic Transformer by Span Masking and Weakly Correlated Text-image Data [53.92883885331805]
本稿では,大規模なWeb構築データを活用した顔知識学習のための生成事前学習モデルを提案する。
また, 顔属性編集, 表情操作, マスク除去, 写真インペイントなど, 幅広い顔編集作業にも適用可能である。
論文 参考訳(メタデータ) (2025-10-21T06:55:44Z) - My Emotion on your face: The use of Facial Keypoint Detection to preserve Emotions in Latent Space Editing [40.24695765468971]
顔表情の変化を制限するために,顔のキーポイント検出モデルの損失関数の追加を提案する。
実験では,感情変化の最大49%の減少が達成された。
論文 参考訳(メタデータ) (2025-05-09T21:10:27Z) - Data Synthesis with Diverse Styles for Face Recognition via 3DMM-Guided Diffusion [37.847141686823264]
アイデンティティ保護顔合成は、仮想被験者の合成顔画像を生成することを目的としており、現実のデータを代用して顔認識モデルを訓練する。
先行芸術は、一貫したアイデンティティと多様なスタイルでイメージを作成しようとするが、それらは両者のトレードオフに直面している。
本稿では拡散型フェイスジェネレータであるMorphFaceを紹介する。
論文 参考訳(メタデータ) (2025-04-01T05:22:53Z) - GaussianHeads: End-to-End Learning of Drivable Gaussian Head Avatars from Coarse-to-fine Representations [54.94362657501809]
マルチビュー画像から高ダイナミックで変形可能な人間の頭部アバターをリアルタイムで生成する手法を提案する。
本手法のコアとなるのは,顔表情と頭部運動の複雑なダイナミクスを捉えることができる頭部モデルの階層的表現である。
我々は、この粗い顔アバターモデルを、エンドツーエンドのフレームワークで学習可能なパラメータとして頭部ポーズとともに訓練する。
論文 参考訳(メタデータ) (2024-09-18T13:05:43Z) - G3FA: Geometry-guided GAN for Face Animation [14.488117084637631]
この制限に対処するために、顔アニメーション(G3FA)のための幾何学誘導型GANを導入する。
我々の新しいアプローチは、顔アニメーションモデルに2次元画像のみを用いて3次元情報を組み込むことを可能にした。
顔の再現モデルでは、動きのダイナミクスを捉えるために2次元の運動ワープを利用する。
論文 参考訳(メタデータ) (2024-08-23T13:13:24Z) - Towards Localized Fine-Grained Control for Facial Expression Generation [54.82883891478555]
人間、特にその顔は、豊かな表現と意図を伝える能力のために、コンテンツ生成の中心である。
現在の生成モデルは、主に平らな中立表現と文字なしの笑顔を認証なしで生成する。
顔生成における表情制御におけるAU(アクションユニット)の利用を提案する。
論文 参考訳(メタデータ) (2024-07-25T18:29:48Z) - GaFET: Learning Geometry-aware Facial Expression Translation from
In-The-Wild Images [55.431697263581626]
本稿では,パラメトリックな3次元顔表現をベースとした新しい顔表情翻訳フレームワークを提案する。
我々は、最先端の手法と比較して、高品質で正確な表情伝達結果を実現し、様々なポーズや複雑なテクスチャの適用性を実証する。
論文 参考訳(メタデータ) (2023-08-07T09:03:35Z) - MorphGANFormer: Transformer-based Face Morphing and De-Morphing [55.211984079735196]
顔変形に対するスタイルGANベースのアプローチが主要な技術である。
本稿では,顔の変形に対する変換器ベースの代替手段を提案し,その利点をStyleGANベースの方法と比較した。
論文 参考訳(メタデータ) (2023-02-18T19:09:11Z) - Neuromuscular Control of the Face-Head-Neck Biomechanical Complex With
Learning-Based Expression Transfer From Images and Videos [13.408753449508326]
人から3D顔モデルへの表情の転送は、古典的なコンピュータグラフィックスの問題である。
バイオメカニカルモデルに表情を移す新しい学習的アプローチを提案する。
論文 参考訳(メタデータ) (2021-11-12T01:13:07Z) - IMAGINE: Image Synthesis by Image-Guided Model Inversion [79.4691654458141]
IMGE-Guided Model INvErsion (IMAGINE) と呼ばれるインバージョンベースの手法を導入し、高品質で多様な画像を生成します。
我々は,事前学習した分類器から画像意味論の知識を活用し,妥当な世代を実現する。
IMAGINEは,1)合成中の意味的特異性制約を同時に実施し,2)ジェネレータトレーニングなしでリアルな画像を生成し,3)生成過程を直感的に制御する。
論文 参考訳(メタデータ) (2021-04-13T02:00:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。