論文の概要: Teacher-Student Training and Triplet Loss to Reduce the Effect of
Drastic Face Occlusion
- arxiv url: http://arxiv.org/abs/2111.10561v1
- Date: Sat, 20 Nov 2021 11:13:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-23 15:06:53.528764
- Title: Teacher-Student Training and Triplet Loss to Reduce the Effect of
Drastic Face Occlusion
- Title(参考訳): 突発的顔面咬合の影響を低減させる教師・生徒の訓練と三重項損失
- Authors: Mariana-Iuliana Georgescu, Georgian Duta, Radu Tudor Ionescu
- Abstract要約: 我々は、完全に視覚的な顔で訓練された畳み込みニューラルネットワーク(CNN)が、非常に低い性能レベルを示すことを示した。
隠蔽面上でのディープラーニングモデルの微調整は非常に有用であるが、完全可視面上で訓練されたモデルから知識を抽出することにより、さらなる性能向上が得られることを示す。
本研究の主な貢献は,三重項損失に基づく知識蒸留の新たなアプローチであり,モデルとタスクをまたいだ一般化である。
- 参考スコア(独自算出の注目度): 15.44796695070395
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study a series of recognition tasks in two realistic scenarios requiring
the analysis of faces under strong occlusion. On the one hand, we aim to
recognize facial expressions of people wearing Virtual Reality (VR) headsets.
On the other hand, we aim to estimate the age and identify the gender of people
wearing surgical masks. For all these tasks, the common ground is that half of
the face is occluded. In this challenging setting, we show that convolutional
neural networks (CNNs) trained on fully-visible faces exhibit very low
performance levels. While fine-tuning the deep learning models on occluded
faces is extremely useful, we show that additional performance gains can be
obtained by distilling knowledge from models trained on fully-visible faces. To
this end, we study two knowledge distillation methods, one based on
teacher-student training and one based on triplet loss. Our main contribution
consists in a novel approach for knowledge distillation based on triplet loss,
which generalizes across models and tasks. Furthermore, we consider combining
distilled models learned through conventional teacher-student training or
through our novel teacher-student training based on triplet loss. We provide
empirical evidence showing that, in most cases, both individual and combined
knowledge distillation methods bring statistically significant performance
improvements. We conduct experiments with three different neural models (VGG-f,
VGG-face, ResNet-50) on various tasks (facial expression recognition, gender
recognition, age estimation), showing consistent improvements regardless of the
model or task.
- Abstract(参考訳): 本研究では,強い隠蔽下での顔の分析を必要とする2つの現実シナリオにおける認識タスクについて検討する。
一方,仮想現実(vr)ヘッドセットを装着した人々の表情を認識することを目的とした。
一方で,年齢を推定し,手術用マスク着用者の性別を識別することを目的とした。
これらすべてのタスクに対して、共通の根拠は、顔の半分が隠されていることである。
この挑戦的な設定では、完全に視覚的な顔で訓練された畳み込みニューラルネットワーク(CNN)は、非常に低いパフォーマンスレベルを示す。
隠蔽面上でのディープラーニングモデルの微調整は非常に有用であるが、完全可視面上で訓練されたモデルから知識を抽出することにより、さらなる性能向上が得られることを示す。
そこで本研究では,教師教育に基づく知識蒸留法と,三重項損失に基づく知識蒸留法について検討した。
私たちの主な貢献は、モデルとタスクをまたがって一般化する三重項損失に基づく知識蒸留に対する新しいアプローチです。
さらに,従来の教員・生徒の訓練や,三重項損失に基づく新しい教員・生徒の訓練で学習した蒸留モデルを組み合わせることを検討する。
多くの場合, 個々の知識蒸留法と複合知識蒸留法の両方が統計的に有意な性能改善をもたらすことを示す実証的証拠を提供する。
我々は,3つの異なるニューラルモデル(VGG-f,VGG-face,ResNet-50)を用いて,様々なタスク(表情認識,性別認識,年齢推定)について実験を行った。
関連論文リスト
- RadOcc: Learning Cross-Modality Occupancy Knowledge through Rendering
Assisted Distillation [50.35403070279804]
マルチビュー画像を用いた3次元シーンの占有状況とセマンティクスを推定することを目的とした,新たな課題である3D占有予測手法を提案する。
本稿では,RandOccを提案する。Rendering Assisted distillation paradigm for 3D Occupancy prediction。
論文 参考訳(メタデータ) (2023-12-19T03:39:56Z) - FitDiff: Robust monocular 3D facial shape and reflectance estimation using Diffusion Models [79.65289816077629]
拡散型3次元顔アバター生成モデルFitDiffを提案する。
本モデルでは,「近距離」2次元顔画像から抽出したアイデンティティ埋め込みを利用して,再現性のある顔アバターを高精度に生成する。
FitDiffは、顔認識の埋め込みを前提とした最初の3D LDMであり、一般的なレンダリングエンジンで使用可能な、ライティング可能な人間のアバターを再構築する。
論文 参考訳(メタデータ) (2023-12-07T17:35:49Z) - Effective Adapter for Face Recognition in the Wild [72.75516495170199]
私たちは、画像が低品質で現実世界の歪みに悩まされる、野生の顔認識の課題に取り組みます。
従来のアプローチでは、劣化した画像や、顔の復元技術を使って強化された画像を直接訓練するが、効果がないことが証明された。
高品質な顔データセットで訓練された既存の顔認識モデルを強化するための効果的なアダプタを提案する。
論文 参考訳(メタデータ) (2023-12-04T08:55:46Z) - A Generative Framework for Self-Supervised Facial Representation Learning [18.094262972295702]
自己教師付き表現学習は、ペア化されたデータセットに頼ることなく、強力な一般化能力に注目されるようになった。
自己監督型顔表現学習は、顔のアイデンティティ、表情、ポーズや光といった外部要因の結合により未解決のままである。
自己教師型顔表現のための新しい生成フレームワークであるLatentFaceを提案する。
論文 参考訳(メタデータ) (2023-09-15T09:34:05Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - CoupleFace: Relation Matters for Face Recognition Distillation [26.2626768462705]
本稿では,CoupleFaceと呼ばれる効果的な顔認識蒸留法を提案する。
まず,情報的相互関係を抽出し,教師モデルの相互関係知識を学生モデルに伝達するために,関係意識蒸留(RAD)損失を導入することを提案する。
提案したCoupleFaceに基づいて,ICCV21 Masked Face Recognition Challenge (MS1M track)で優勝した。
論文 参考訳(メタデータ) (2022-04-12T03:25:42Z) - Pre-training strategies and datasets for facial representation learning [58.8289362536262]
いくつかの顔分析タスクやデータセットに適用可能な普遍的な顔表現の探索方法を示す。
顔に適応する2つの大規模表現学習を体系的に検討する。
私たちの主な2つの発見は以下の通りです: 完全にインザワイルドな未処理データに対する教師なし事前トレーニングは一貫性を提供し、場合によっては大幅な精度向上をもたらします。
論文 参考訳(メタデータ) (2021-03-30T17:57:25Z) - A Multi-resolution Approach to Expression Recognition in the Wild [9.118706387430883]
顔認識タスクを解決するためのマルチリゾリューション手法を提案する。
私たちは、しばしば異なる解像度で画像が取得されるという観察を直感的に根拠としています。
我々は、Affect-in-the-Wild 2データセットに基づいてトレーニングされたSqueeze-and-Excitationブロックを備えたResNetのようなアーキテクチャを使用する。
論文 参考訳(メタデータ) (2021-03-09T21:21:02Z) - Teacher-Student Training and Triplet Loss for Facial Expression
Recognition under Occlusion [29.639941810500638]
例えば、被験者がバーチャルリアリティ(VR)ヘッドセットを着用している場合など、顔の50%が隠されている場合に関心があります。
これまでの研究では、完全に視覚的な顔における事前学習された畳み込みニューラルネットワーク(CNN)が精度を向上させることが示されている。
我々は、さらなる改善を達成するために知識蒸留を採用することを提案する。
論文 参考訳(メタデータ) (2020-08-03T16:41:19Z) - Learning to Augment Expressions for Few-shot Fine-grained Facial
Expression Recognition [98.83578105374535]
顔表情データベースF2EDについて述べる。
顔の表情は119人から54人まで、200万枚以上の画像が含まれている。
実世界のシナリオでは,不均一なデータ分布やサンプルの欠如が一般的であるので,数発の表情学習の課題を評価する。
顔画像合成のための統合されたタスク駆動型フレームワークであるComposeal Generative Adversarial Network (Comp-GAN) 学習を提案する。
論文 参考訳(メタデータ) (2020-01-17T03:26:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。