論文の概要: BabyFlow: 3D modeling of realistic and expressive infant faces
- arxiv url: http://arxiv.org/abs/2512.19560v1
- Date: Mon, 22 Dec 2025 16:42:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.844446
- Title: BabyFlow: 3D modeling of realistic and expressive infant faces
- Title(参考訳): BabyFlow:リアルで表現力のある幼児の顔の3Dモデリング
- Authors: Antonia Alomar, Mireia Masias, Marius George Linguraru, Federico M. Sukno, Gemma Piella,
- Abstract要約: 顔の識別と表情をアンタングルする生成型AIモデルであるBabyFlowを紹介する。
BabyFlowは、表現力のある幼児の顔の複雑な非線形変動を捉える、柔軟で確率的な表現を学ぶ。
口、目、鼻などの高度に表現力のある領域では、3D再構成の精度が向上する。
- 参考スコア(独自算出の注目度): 1.4985562716954446
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Early detection of developmental disorders can be aided by analyzing infant craniofacial morphology, but modeling infant faces is challenging due to limited data and frequent spontaneous expressions. We introduce BabyFlow, a generative AI model that disentangles facial identity and expression, enabling independent control over both. Using normalizing flows, BabyFlow learns flexible, probabilistic representations that capture the complex, non-linear variability of expressive infant faces without restrictive linear assumptions. To address scarce and uncontrolled expressive data, we perform cross-age expression transfer, adapting expressions from adult 3D scans to enrich infant datasets with realistic and systematic expressive variants. As a result, BabyFlow improves 3D reconstruction accuracy, particularly in highly expressive regions such as the mouth, eyes, and nose, and supports synthesis and modification of infant expressions while preserving identity. Additionally, by integrating with diffusion models, BabyFlow generates high-fidelity 2D infant images with consistent 3D geometry, providing powerful tools for data augmentation and early facial analysis.
- Abstract(参考訳): 発達障害の早期発見は、幼児の頭蓋顔面形態を解析することによって支援できるが、幼児の顔のモデリングは、限られたデータと頻繁な自然表現のために困難である。
BabyFlowは、顔のアイデンティティと表情をアンタングル化し、両者を独立的に制御できる生成型AIモデルである。
正規化フローを使用することで、BabyFlowは柔軟で確率的な表現を学び、表現力のある幼児の顔の複雑な非線形変動を制限的な線形仮定なしで捉える。
弱さと制御不能な表現データに対処するため、成人3Dスキャンから表現を適応させ、現実的で体系的な表現的変異を持つ幼児データセットを豊かにするクロスエイジ表現転送を行う。
結果として、BabyFlowは、特に口、目、鼻などの高度に表現力のある領域において、3D再構成の精度を改善し、アイデンティティを保ちながら幼児の表情の合成と修正をサポートする。
さらに、拡散モデルとの統合により、BabyFlowは、一貫性のある3D形状を持つ高忠実な2D乳幼児画像を生成し、データ拡張と早期顔分析のための強力なツールを提供する。
関連論文リスト
- Learning Disentangled Speech- and Expression-Driven Blendshapes for 3D Talking Face Animation [20.91704034858042]
音声と感情の両方によって駆動される顔のアニメーションを線形加法問題としてモデル化する。
我々は、FLAMEモデルの表情と顎ポーズパラメータにマッピングできる、スピーチと感情によって駆動されるブレンドサップのセットを学習する。
提案手法は,リップシンク品質を損なうことなく,既存の方法に比べて感情表現性が優れている。
論文 参考訳(メタデータ) (2025-10-29T07:29:21Z) - SEREP: Semantic Facial Expression Representation for Robust In-the-Wild Capture and Retargeting [4.083283519300837]
セマンティックレベルで表現をアイデンティティから切り離すモデルであるSEREPを提案する。
我々は、低品質合成データを用いた新しい半教師付きスキームに基づいて、単眼画像から表現を予測するモデルを訓練する。
実験の結果、SEREPは最先端の手法よりも優れており、挑戦的な表現をキャプチャし、それらを新しいアイデンティティに転送する。
論文 参考訳(メタデータ) (2024-12-18T22:12:28Z) - ChildDiffusion: Unlocking the Potential of Generative AI and Controllable Augmentations for Child Facial Data using Stable Diffusion and Large Language Models [1.1470070927586018]
この枠組みは、民族データ、微妙な表現、顔ポーズのバリエーション、目まき効果、異なる髪の色とスタイル、老化、複数と異なる子供の性別を単一のフレームでレンダリングすることによって検証される。
提案手法は、時間的不整合や出力の限られた制御など、生成AIツールで発生する一般的な問題を回避している。
論文 参考訳(メタデータ) (2024-06-17T14:37:14Z) - AnimateMe: 4D Facial Expressions via Diffusion Models [72.63383191654357]
拡散モデルの最近の進歩により、2次元アニメーションにおける生成モデルの能力が向上した。
グラフニューラルネットワーク(GNN)は,メッシュ空間上で直接拡散過程を定式化し,新しい手法で拡散モデルを記述する。
これにより、メッシュ拡散モデルによる顔の変形の発生が容易になる。
論文 参考訳(メタデータ) (2024-03-25T21:40:44Z) - Learning Developmental Age from 3D Infant Kinetics Using Adaptive Graph Neural Networks [2.2279946664123664]
Kinetic Age(KA)は、運動パターンに基づいて幼児の年齢を予測することによって、神経発達の成熟度を定量化するデータ駆動の指標である。
本手法は乳児の3次元映像記録を利用してポーズ推定を行い,解剖学的ランドマークの抽出・時間的時系列を抽出する。
これらのデータは適応的なグラフ畳み込みネットワークを用いてモデル化され、幼児運動における検出時間依存性を捉えることができる。
論文 参考訳(メタデータ) (2024-02-22T09:34:48Z) - Controllable 3D Generative Adversarial Face Model via Disentangling
Shape and Appearance [63.13801759915835]
3次元顔モデリングはコンピュータビジョンとコンピュータグラフィックスの研究の活発な領域である。
本稿では,識別と表現を分離できる新しい3次元顔生成モデルを提案する。
論文 参考訳(メタデータ) (2022-08-30T13:40:48Z) - Free-HeadGAN: Neural Talking Head Synthesis with Explicit Gaze Control [54.079327030892244]
Free-HeadGANは、人為的なニューラルトーキングヘッド合成システムである。
本研究では,3次元顔のランドマークが不足している顔のモデリングが,最先端の生成性能を達成するのに十分であることを示す。
論文 参考訳(メタデータ) (2022-08-03T16:46:08Z) - ImFace: A Nonlinear 3D Morphable Face Model with Implicit Neural
Representations [21.389170615787368]
本稿では,暗黙のニューラル表現を持つ非線形かつ連続的な空間を学習するために,新しい3次元顔モデルImFaceを提案する。
2つの明示的に非交叉な変形場を構築し、それぞれアイデンティティと表現に関連する複雑な形状をモデル化し、表現の埋め込みを拡張するための改良された学習戦略を設計する。
ImFaceに加えて、暗黙の表現における水密入力要求の問題に対処するために、効果的な前処理パイプラインが提案されている。
論文 参考訳(メタデータ) (2022-03-28T05:37:59Z) - Scene Synthesis via Uncertainty-Driven Attribute Synchronization [52.31834816911887]
本稿では,3次元シーンの多様な特徴パターンを捉えるニューラルシーン合成手法を提案する。
提案手法は,ニューラルネットワークと従来のシーン合成手法の双方の長所を結合する。
論文 参考訳(メタデータ) (2021-08-30T19:45:07Z) - Learning an Animatable Detailed 3D Face Model from In-The-Wild Images [50.09971525995828]
本研究では, 実物的詳細と実物的画像から3次元顔レグレッサーを共同学習する第1の手法を提案する。
DECAモデルは、低次元の潜時表現からUV変位マップを堅牢に生成するように訓練されています。
本稿では,人固有の細部と表情依存のしわを区別する新しい細部一貫性損失を提案する。
論文 参考訳(メタデータ) (2020-12-07T19:30:45Z) - Continuous Emotion Recognition with Spatiotemporal Convolutional Neural
Networks [82.54695985117783]
In-theld でキャプチャした長いビデオシーケンスを用いて,持続的な感情認識のための最先端のディープラーニングアーキテクチャの適合性を検討する。
我々は,2D-CNNと長期記憶ユニットを組み合わせた畳み込みリカレントニューラルネットワークと,2D-CNNモデルの微調整時の重みを膨らませて構築した膨らませた3D-CNNモデルを開発した。
論文 参考訳(メタデータ) (2020-11-18T13:42:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。