論文の概要: Estimation of BMI from Facial Images using Semantic Segmentation based
Region-Aware Pooling
- arxiv url: http://arxiv.org/abs/2104.04733v1
- Date: Sat, 10 Apr 2021 10:53:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-16 04:58:29.317239
- Title: Estimation of BMI from Facial Images using Semantic Segmentation based
Region-Aware Pooling
- Title(参考訳): セマンティックセグメンテーションに基づく領域認識ポーリングによる顔画像からのBMIの推定
- Authors: Nadeem Yousaf, Sarfaraz Hussein, Waqas Sultani
- Abstract要約: Body-Mass-Index (BMI)は、健康や社会経済的状況などの生活に関する重要な情報を伝達する。
近年の研究では、手作業による幾何学的顔の特徴やBMI予測のための顔レベルの深い畳み込みニューラルネットワークの特徴が採用されている。
異なる顔領域からプールされた深い特徴を利用することを提案する。
- 参考スコア(独自算出の注目度): 3.889462292853575
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Body-Mass-Index (BMI) conveys important information about one's life such as
health and socio-economic conditions. Large-scale automatic estimation of BMIs
can help predict several societal behaviors such as health, job opportunities,
friendships, and popularity. The recent works have either employed hand-crafted
geometrical face features or face-level deep convolutional neural network
features for face to BMI prediction. The hand-crafted geometrical face feature
lack generalizability and face-level deep features don't have detailed local
information. Although useful, these methods missed the detailed local
information which is essential for exact BMI prediction. In this paper, we
propose to use deep features that are pooled from different face regions (eye,
nose, eyebrow, lips, etc.,) and demonstrate that this explicit pooling from
face regions can significantly boost the performance of BMI prediction. To
address the problem of accurate and pixel-level face regions localization, we
propose to use face semantic segmentation in our framework. Extensive
experiments are performed using different Convolutional Neural Network (CNN)
backbones including FaceNet and VGG-face on three publicly available datasets:
VisualBMI, Bollywood and VIP attributes. Experimental results demonstrate that,
as compared to the recent works, the proposed Reg-GAP gives a percentage
improvement of 22.4\% on VIP-attribute, 3.3\% on VisualBMI, and 63.09\% on the
Bollywood dataset.
- Abstract(参考訳): Body-Mass-Index (BMI)は、健康や社会経済的状況などの生活に関する重要な情報を伝達する。
BMIの大規模自動推定は、健康、仕事の機会、友情、人気など、いくつかの社会的行動を予測するのに役立つ。
最近の研究では、手作りの幾何学的顔特徴と、face to bmi予測のための顔レベルの深い畳み込みニューラルネットワーク特徴が採用されている。
手作りの幾何学的特徴には一般化性がなく、顔レベルの深い特徴には詳細なローカル情報がない。
有用ではあるが、これらの手法は正確なBMI予測に不可欠な詳細なローカル情報を見逃した。
本稿では, 異なる顔領域(目, 鼻, まぶた, 唇など)からプールされる深い特徴を用いて, 顔領域からの明示的なプーリングが, BMI予測の性能を大幅に向上させることを示す。
高精度かつピクセルレベルの顔領域ローカライゼーションの問題に対処するため,本フレームワークでは顔意味セグメント化を提案する。
さまざまな畳み込みニューラルネットワーク(cnn)バックボーンを使用して、visualbmi、bollywood、vip属性の3つの公開データセットで、facenetとvgg-faceを含む広範な実験が行われている。
実験の結果,vip-attributeでは22.4\%,visualbmiでは3.3\%,bollywoodデータセットでは63.09\%,reg-gapでは22.4\%向上した。
関連論文リスト
- BMI Prediction from Handwritten English Characters Using a Convolutional Neural Network [0.0]
これまでの研究では、筆跡解析のためのディープラーニング技術とBMI予測との間に明確な関連性は確立されなかった。
本稿では、畳み込みニューラルネットワーク(CNN)を開発し、手書き文字からBMIを推定するディープラーニングアプローチを用いて、この研究ギャップに対処する。
BMI予測タスクのために、小文字の英語スクリプトの48人のサンプルを含むデータセットを正常にキャプチャする。
論文 参考訳(メタデータ) (2024-09-04T10:06:42Z) - Multi-Branch Deep Radial Basis Function Networks for Facial Emotion
Recognition [80.35852245488043]
放射状基底関数(RBF)ユニットによって形成された複数の分岐で拡張されたCNNベースのアーキテクチャを提案する。
RBFユニットは、中間表現を用いて類似のインスタンスで共有される局所パターンをキャプチャする。
提案手法は,提案手法の競争力を高めるためのローカル情報の導入であることを示す。
論文 参考訳(メタデータ) (2021-09-07T21:05:56Z) - Facial expression and attributes recognition based on multi-task
learning of lightweight neural networks [9.162936410696409]
顔の識別と顔の属性の分類のための軽量畳み込みニューラルネットワークのマルチタスクトレーニングを検討する。
顔の表情を予測するためには,これらのネットワークを微調整する必要がある。
MobileNet、EfficientNet、RexNetアーキテクチャに基づくいくつかのモデルが提示される。
論文 参考訳(メタデータ) (2021-03-31T14:21:04Z) - An Efficient Multitask Neural Network for Face Alignment, Head Pose
Estimation and Face Tracking [9.39854778804018]
効率的なマルチタスク顔アライメント、顔追跡、頭部ポーズ推定ネットワーク(ATPN)を提案します。
ATPNは従来の最先端手法に比べて性能が向上し、パラメータやFLOPSは少ない。
論文 参考訳(メタデータ) (2021-03-13T04:41:15Z) - Regional Attention Network (RAN) for Head Pose and Fine-grained Gesture
Recognition [9.131161856493486]
本研究では,CNN(Convolutional Neural Network) である RAN (End-to-end textbfRegional Attention Network) を提案する。
我々の領域は1つ以上の連続した細胞から構成されており、HOG(Histogram of Oriented Gradient)ディスクリプタの計算に使用される戦略に適応している。
提案手法は、異なる指標のかなりの差で最先端の手法より優れている。
論文 参考訳(メタデータ) (2021-01-17T10:14:28Z) - PGL: Prior-Guided Local Self-supervised Learning for 3D Medical Image
Segmentation [87.50205728818601]
本稿では,潜在特徴空間における局所的一貫性を学習するPGL(PresideedGuided Local)自己教師モデルを提案する。
我々のPGLモデルは、局所領域の特異な表現を学習し、したがって構造情報を保持できる。
論文 参考訳(メタデータ) (2020-11-25T11:03:11Z) - AI-based BMI Inference from Facial Images: An Application to Weight
Monitoring [3.4601380631551146]
顔画像からのBMI推論のための5種類のCNNアーキテクチャの性能評価と比較を行った。
実験結果から,ResNet50を用いて得られた平均絶対誤差(MAE)が1.04ドルである顔画像からのBMI推論における深層学習の有効性が示唆された。
論文 参考訳(メタデータ) (2020-10-15T00:00:40Z) - Semi-Siamese Training for Shallow Face Learning [78.7386209619276]
セミ・シームズ・トレーニング(SST)という新しいトレーニング手法を導入する。
一対のセミ・シームズネットワークが前方伝播構造を構成し、トレーニング損失を更新ギャラリーキューで計算する。
提案手法は外部依存を伴わずに開発されており,既存の損失関数やネットワークアーキテクチャと柔軟に統合することができる。
論文 参考訳(メタデータ) (2020-07-16T15:20:04Z) - A Transfer Learning approach to Heatmap Regression for Action Unit
intensity estimation [50.261472059743845]
アクション・ユニット(英: Action Units、AUs)は、幾何学に基づく原子性顔面筋運動である。
本稿では,その位置と強度を共同で推定する新しいAUモデリング問題を提案する。
ヒートマップは、所定の空間的位置でAUが発生するか否かをモデル化する。
論文 参考訳(メタデータ) (2020-04-14T16:51:13Z) - DotFAN: A Domain-transferred Face Augmentation Network for Pose and
Illumination Invariant Face Recognition [94.96686189033869]
本稿では,3次元モデルを用いたドメイン転送型顔強調ネットワーク(DotFAN)を提案する。
DotFANは、他のドメインから収集された既存のリッチフェイスデータセットから抽出された知識に基づいて、入力顔の一連の変種を生成することができる。
実験によると、DotFANは、クラス内の多様性を改善するために、小さな顔データセットを増やすのに有益である。
論文 参考訳(メタデータ) (2020-02-23T08:16:34Z) - It's Written All Over Your Face: Full-Face Appearance-Based Gaze
Estimation [82.16380486281108]
顔の全体像のみを入力とする外観に基づく手法を提案する。
本手法は,特徴写像に空間重みを印加した畳み込みニューラルネットワークを用いて顔画像の符号化を行う。
本手法は2次元視線と3次元視線の両方で技量を有意に上回ることを示す。
論文 参考訳(メタデータ) (2016-11-27T15:00:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。