論文の概要: ChildPredictor: A Child Face Prediction Framework with Disentangled
Learning
- arxiv url: http://arxiv.org/abs/2204.09962v1
- Date: Thu, 21 Apr 2022 08:38:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-22 14:49:39.147714
- Title: ChildPredictor: A Child Face Prediction Framework with Disentangled
Learning
- Title(参考訳): ChildPredictor: 歪んだ学習を伴う子どもの顔予測フレームワーク
- Authors: Yuzhi Zhao, Lai-Man Po, Xuehui Wang, Qiong Yan, Wei Shen, Yujia Zhang,
Wei Liu, Chun-Kit Wong, Chiu-Sing Pang, Weifeng Ou, Wing-Yin Yu, Buhua Liu
- Abstract要約: 本研究では,子どもの顔の表情予測のための学習戦略を提案する。
我々は、両親の遺伝的要因から子供の遺伝的要因へのマッピングとして予測を定式化する。
ChildPredictorは、他のよく知られた画像から画像への変換方法よりも優れている。
- 参考スコア(独自算出の注目度): 23.765448212636183
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The appearances of children are inherited from their parents, which makes it
feasible to predict them. Predicting realistic children's faces may help settle
many social problems, such as age-invariant face recognition, kinship
verification, and missing child identification. It can be regarded as an
image-to-image translation task. Existing approaches usually assume domain
information in the image-to-image translation can be interpreted by "style",
i.e., the separation of image content and style. However, such separation is
improper for the child face prediction, because the facial contours between
children and parents are not the same. To address this issue, we propose a new
disentangled learning strategy for children's face prediction. We assume that
children's faces are determined by genetic factors (compact family features,
e.g., face contour), external factors (facial attributes irrelevant to
prediction, such as moustaches and glasses), and variety factors (individual
properties for each child). On this basis, we formulate predictions as a
mapping from parents' genetic factors to children's genetic factors, and
disentangle them from external and variety factors. In order to obtain accurate
genetic factors and perform the mapping, we propose a ChildPredictor framework.
It transfers human faces to genetic factors by encoders and back by generators.
Then, it learns the relationship between the genetic factors of parents and
children through a mapping function. To ensure the generated faces are
realistic, we collect a large Family Face Database to train ChildPredictor and
evaluate it on the FF-Database validation set. Experimental results demonstrate
that ChildPredictor is superior to other well-known image-to-image translation
methods in predicting realistic and diverse child faces. Implementation codes
can be found at https://github.com/zhaoyuzhi/ChildPredictor.
- Abstract(参考訳): 子供の出現は両親から受け継がれるため、それを予測することが可能である。
リアルな子供の顔を予測することは、年齢変化の顔認識、血縁確認、行方不明の子供の識別など、多くの社会問題を解くのに役立つかもしれない。
これは画像から画像への翻訳タスクと見なすことができる。
既存のアプローチでは、イメージ・ツー・イメージ翻訳のドメイン情報は「スタイル」、すなわち画像の内容とスタイルの分離によって解釈できる。
しかし、子供と親の顔の輪郭が同じではないため、子供の顔の予測にはそのような分離は不適切である。
この問題に対処するため,子どもの顔の表情を予測するための学習戦略を提案する。
子どもの顔は遺伝的要因(例えば、顔の輪郭など)、外部要因(口ひげや眼鏡などの予測とは無関係な顔の属性)、多様性要因(各子どもの個人的特性)によって決定されると仮定する。
本研究では,親の遺伝的要因から子どもの遺伝的要因へのマッピングとして予測を定式化し,外部および異種要因と区別する。
正確な遺伝的要因を入手し,マッピングを行うために,育児予測フレームワークを提案する。
人間の顔を遺伝子因子にエンコーダで転送し、ジェネレータで戻す。
そして、マッピング機能を用いて、両親と子供の遺伝的要因の関係を学習する。
生成した顔が現実的なものであることを確かめるために、大規模なファミリーフェイスデータベースを収集し、ChildPredictorをトレーニングし、FF-Databaseバリデーションセットで評価する。
実験の結果, 子どもの表情の現実的・多彩な予測において, 幼児予測が他の画像から画像への翻訳手法よりも優れていることが示された。
実装コードはhttps://github.com/zhaoyuzhi/childpredictorにある。
関連論文リスト
- Semantic Contextualization of Face Forgery: A New Definition, Dataset, and Detection Method [77.65459419417533]
我々は,顔フォージェリを意味的文脈に配置し,意味的顔属性を変更する計算手法が顔フォージェリの源であることを定義した。
階層的なグラフで整理されたラベルの集合に各画像が関連付けられている大規模な顔偽画像データセットを構築した。
本稿では,ラベル関係を捕捉し,その優先課題を優先するセマンティクス指向の顔偽造検出手法を提案する。
論文 参考訳(メタデータ) (2024-05-14T10:24:19Z) - Young Labeled Faces in the Wild (YLFW): A Dataset for Children Faces
Recognition [0.0]
子どもの顔認識のためのベンチマークデータセットを,LFW, CALFW, CPLFW, XQLFW, AgeDBといった有名な顔認識ベンチマークと同様にコンパイルする。
また、子供の顔画像に顔認識モデルを適用するための開発データセットも提示する。
論文 参考訳(メタデータ) (2023-01-13T22:19:44Z) - Are Face Detection Models Biased? [69.68854430664399]
顔領域の局所化による顔検出領域のバイアスについて検討した。
既存の顔検出データセットの多くは、このような分析に適したアノテーションを欠いている。
性別や肌の音色による検出精度の相違を観察し, 画像診断以外の要因の相互関係を考察した。
論文 参考訳(メタデータ) (2022-11-07T14:27:55Z) - Few-Shot Meta Learning for Recognizing Facial Phenotypes of Genetic
Disorders [55.41644538483948]
分類の自動化と類似性検索は、医師が可能な限り早期に遺伝状態の診断を行うための意思決定を支援する。
従来の研究は分類問題としてこの問題に対処し、深層学習法を用いてきた。
本研究では,健常人の大規模なコーパスで訓練した顔認識モデルを用いて,顔の表情認識に移行した。
論文 参考訳(メタデータ) (2022-10-23T11:52:57Z) - Deep Adaptation of Adult-Child Facial Expressions by Fusing Landmark Features [0.6219950137166257]
深層畳み込みニューラルネットワークは、成人の表情の分類において有望な結果を示す。
本研究では, BEACE-BE-SELF (BEtaMix Selected Landmark Features) を用いた適応型FACial Expressionsを提案する。
論文 参考訳(メタデータ) (2022-09-18T17:29:36Z) - Improving Face Recognition with Large Age Gaps by Learning to
Distinguish Children [18.035138944233367]
本稿では,子像間の類似度を最小限に抑える新たな損失関数であるInter-Prototype Losingを提案する。
実験と詳細な分析により,既存の顔認識のベースラインを子どもと大人のペアで上回る結果が得られた。
論文 参考訳(メタデータ) (2021-10-22T07:31:14Z) - InfAnFace: Bridging the infant-adult domain gap in facial landmark
estimation in the wild [0.2786153781225931]
InfAnFaceは乳児の顔のリッチなアノテーション付きデータセットである。
我々は、成人の顔に訓練された既存の顔のランドマーク推定アルゴリズムの性能をベンチマークした。
私たちはそのギャップを埋める次のステップを推し進めました。
論文 参考訳(メタデータ) (2021-10-17T22:12:16Z) - Heredity-aware Child Face Image Generation with Latent Space
Disentanglement [96.92684978356425]
本研究では,子育てに先立つ親のイメージに基づいて子どものイメージを生成するための,子育てという新しいアプローチを提案する。
第一の考え方は、事前訓練された生成モデルの潜伏空間を乱し、明確な意味論で児童画像の顔属性を正確に制御することである。
論文 参考訳(メタデータ) (2021-08-25T06:59:43Z) - Age Gap Reducer-GAN for Recognizing Age-Separated Faces [72.26969872180841]
本稿では,年齢変化に伴う顔と時間変化をマッチングする新しいアルゴリズムを提案する。
提案手法は,顔の年齢推定と年齢別顔の検証を組み合わせた統合フレームワークである。
論文 参考訳(メタデータ) (2020-11-11T16:43:32Z) - Controllable Descendant Face Synthesis [35.12798065779327]
本稿では,制御可能な顔合成法を提案する。
私たちのモデルは継承モジュールと属性拡張モジュールで構成されています。
注意深いデザインのイメージペアは、トレーニング顔の年齢や性別のラベルだけを学習するために必要とされない。
論文 参考訳(メタデータ) (2020-02-26T09:33:41Z) - Facial Attribute Capsules for Noise Face Super Resolution [86.55076473929965]
既存の顔超解像法(SR)は主に入力画像がノイズフリーであると仮定する。
本稿では,雑音の多い顔画像の高解像度化を実現するために,FACN(Facial Attribute Capsules Network)を提案する。
提案手法は,超低分解能(LR)ノイズフェース画像の超解像において,優れた幻覚効果を達成し,最先端技術よりも優れる。
論文 参考訳(メタデータ) (2020-02-16T06:22:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。