論文の概要: Teacher-Student Training and Triplet Loss for Facial Expression
Recognition under Occlusion
- arxiv url: http://arxiv.org/abs/2008.01003v2
- Date: Thu, 25 Feb 2021 18:54:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 05:55:50.229019
- Title: Teacher-Student Training and Triplet Loss for Facial Expression
Recognition under Occlusion
- Title(参考訳): 咬合下の表情認識のための教師学習とトリプルト損失
- Authors: Mariana-Iuliana Georgescu, Radu Tudor Ionescu
- Abstract要約: 例えば、被験者がバーチャルリアリティ(VR)ヘッドセットを着用している場合など、顔の50%が隠されている場合に関心があります。
これまでの研究では、完全に視覚的な顔における事前学習された畳み込みニューラルネットワーク(CNN)が精度を向上させることが示されている。
我々は、さらなる改善を達成するために知識蒸留を採用することを提案する。
- 参考スコア(独自算出の注目度): 29.639941810500638
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we study the task of facial expression recognition under
strong occlusion. We are particularly interested in cases where 50% of the face
is occluded, e.g. when the subject wears a Virtual Reality (VR) headset. While
previous studies show that pre-training convolutional neural networks (CNNs) on
fully-visible (non-occluded) faces improves the accuracy, we propose to employ
knowledge distillation to achieve further improvements. First of all, we employ
the classic teacher-student training strategy, in which the teacher is a CNN
trained on fully-visible faces and the student is a CNN trained on occluded
faces. Second of all, we propose a new approach for knowledge distillation
based on triplet loss. During training, the goal is to reduce the distance
between an anchor embedding, produced by a student CNN that takes occluded
faces as input, and a positive embedding (from the same class as the anchor),
produced by a teacher CNN trained on fully-visible faces, so that it becomes
smaller than the distance between the anchor and a negative embedding (from a
different class than the anchor), produced by the student CNN. Third of all, we
propose to combine the distilled embeddings obtained through the classic
teacher-student strategy and our novel teacher-student strategy based on
triplet loss into a single embedding vector. We conduct experiments on two
benchmarks, FER+ and AffectNet, with two CNN architectures, VGG-f and VGG-face,
showing that knowledge distillation can bring significant improvements over the
state-of-the-art methods designed for occluded faces in the VR setting.
- Abstract(参考訳): 本稿では,強い閉塞下での表情認識の課題について検討する。
特に、被験者が仮想現実(VR)ヘッドセットを着用している場合など、顔の50%が隠されている場合に関心があります。
事前学習畳み込みニューラルネットワーク (cnns) の完全可視性(非遮蔽性)面における精度向上が示されたが, さらなる改善を達成するために, 知識蒸留を用いることを提案する。
まず,教師が完全に見える顔で訓練されたcnnであり,生徒がオクルードされた顔で訓練されたcnnである古典的教員教育戦略を採用する。
第2に,三重項損失に基づく知識蒸留の新しい手法を提案する。
トレーニング中は、隠蔽された顔を入力として取る学生のCNNが生成するアンカー埋め込みと、完全に視覚的な顔で訓練された教師のCNNが生成する正の埋め込み(アンカーと同じクラスから)との距離を減らし、学生のCNNが生成するアンカーと負の埋め込み(アンカーとは異なるクラスから)の距離より小さくすることを目的としている。
第三に,従来の教師・学生戦略と,三重項損失に基づく新しい教師・学生戦略を融合して,一つの埋め込みベクターを構築することを提案する。
VGG-fとVGG-faceの2つのCNNアーキテクチャを用いて、FER+とAffectNetという2つのベンチマークで実験を行い、知識蒸留がVR環境における隠蔽顔のための最先端の手法よりも大幅に改善できることを示した。
関連論文リスト
- Distilling Efficient Vision Transformers from CNNs for Semantic
Segmentation [12.177329445930276]
我々はC2VKDと呼ばれる新しいCNN-to-ViT KDフレームワークを提案する。
まず視覚的特徴蒸留(VLFD)モジュールを提案する。
そこで我々は,ラベルと教師の予測とを併用して学生を監督する,画素ワイド・デカップリング蒸留(PDD)モジュールを提案する。
論文 参考訳(メタデータ) (2023-10-11T07:45:37Z) - Cross Architecture Distillation for Face Recognition [49.55061794917994]
本研究では,教師にプロンプトを組み込むことで,蒸留専門知識の管理を可能にする適応型プロンプト教師ネットワーク(APT)を開発した。
一般的な顔のベンチマークと2つの大規模な検証セットによる実験は,本手法の優位性を実証している。
論文 参考訳(メタデータ) (2023-06-26T12:54:28Z) - Triplet Knowledge Distillation [73.39109022280878]
知識蒸留(Knowledge Distillation)では、教師は一般的に生徒よりもはるかに大きく、教師の解法は生徒が学ぶのが難しくなる。
模擬困難を緩和するため,TriKDという三重項知識蒸留機構を導入する。
論文 参考訳(メタデータ) (2023-05-25T12:12:31Z) - UNIKD: UNcertainty-filtered Incremental Knowledge Distillation for Neural Implicit Representation [48.49860868061573]
最近の神経暗黙表現(NIR)は、3次元再構成と新しいビュー合成のタスクにおいて大きな成功を収めている。
それらは、異なるカメラビューからのシーンのイメージを、一度のトレーニングで利用できるようにする必要がある。
これは特に大規模なシーンと限られたデータストレージを持つシナリオでは高価である。
我々は、破滅的な問題を緩和するために、学生-教師の枠組みを設計する。
論文 参考訳(メタデータ) (2022-12-21T11:43:20Z) - CoupleFace: Relation Matters for Face Recognition Distillation [26.2626768462705]
本稿では,CoupleFaceと呼ばれる効果的な顔認識蒸留法を提案する。
まず,情報的相互関係を抽出し,教師モデルの相互関係知識を学生モデルに伝達するために,関係意識蒸留(RAD)損失を導入することを提案する。
提案したCoupleFaceに基づいて,ICCV21 Masked Face Recognition Challenge (MS1M track)で優勝した。
論文 参考訳(メタデータ) (2022-04-12T03:25:42Z) - Teacher-Student Training and Triplet Loss to Reduce the Effect of
Drastic Face Occlusion [15.44796695070395]
我々は、完全に視覚的な顔で訓練された畳み込みニューラルネットワーク(CNN)が、非常に低い性能レベルを示すことを示した。
隠蔽面上でのディープラーニングモデルの微調整は非常に有用であるが、完全可視面上で訓練されたモデルから知識を抽出することにより、さらなる性能向上が得られることを示す。
本研究の主な貢献は,三重項損失に基づく知識蒸留の新たなアプローチであり,モデルとタスクをまたいだ一般化である。
論文 参考訳(メタデータ) (2021-11-20T11:13:46Z) - Knowledge Distillation By Sparse Representation Matching [107.87219371697063]
本稿では,一方の畳み込みネットワーク(cnn)から他方へ,スパース表現を用いて中間知識を伝達するスパース表現マッチング(srm)を提案する。
勾配降下を利用して効率的に最適化し、任意のCNNにプラグアンドプレイで統合できるニューラルプロセッシングブロックとして定式化します。
実験の結果,教師と生徒のネットワーク間のアーキテクチャの違いに頑健であり,複数のデータセットにまたがる他のkd技術よりも優れていた。
論文 参考訳(メタデータ) (2021-03-31T11:47:47Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Distilling Object Detectors with Task Adaptive Regularization [97.52935611385179]
現在の最先端のオブジェクト検出器は高い計算コストを犠牲にしており、ローエンドデバイスへのデプロイが困難である。
より大規模な教師モデルから知識を伝達することで、より小さな学生ネットワークを訓練することを目的とした知識蒸留は、モデル小型化のための有望な解決策の1つである。
論文 参考訳(メタデータ) (2020-06-23T15:58:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。