論文の概要: Boosting Facial Expression Recognition by A Semi-Supervised Progressive
Teacher
- arxiv url: http://arxiv.org/abs/2205.14361v1
- Date: Sat, 28 May 2022 07:47:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 16:09:59.773335
- Title: Boosting Facial Expression Recognition by A Semi-Supervised Progressive
Teacher
- Title(参考訳): 半監督プログレッシブ・教師による顔表情認識の促進
- Authors: Jing Jiang and Weihong Deng
- Abstract要約: 本稿では,信頼度の高いFERデータセットと大規模未ラベル表現画像を有効訓練に用いるための半教師付き学習アルゴリズム,Progressive Teacher (PT)を提案する。
RAF-DB と FERPlus を用いた実験により,RAF-DB で89.57% の精度で最先端の性能を実現する手法の有効性が検証された。
- 参考スコア(独自算出の注目度): 54.50747989860957
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we aim to improve the performance of in-the-wild Facial
Expression Recognition (FER) by exploiting semi-supervised learning.
Large-scale labeled data and deep learning methods have greatly improved the
performance of image recognition. However, the performance of FER is still not
ideal due to the lack of training data and incorrect annotations (e.g., label
noises). Among existing in-the-wild FER datasets, reliable ones contain
insufficient data to train robust deep models while large-scale ones are
annotated in lower quality. To address this problem, we propose a
semi-supervised learning algorithm named Progressive Teacher (PT) to utilize
reliable FER datasets as well as large-scale unlabeled expression images for
effective training. On the one hand, PT introduces semi-supervised learning
method to relieve the shortage of data in FER. On the other hand, it selects
useful labeled training samples automatically and progressively to alleviate
label noise. PT uses selected clean labeled data for computing the supervised
classification loss and unlabeled data for unsupervised consistency loss.
Experiments on widely-used databases RAF-DB and FERPlus validate the
effectiveness of our method, which achieves state-of-the-art performance with
accuracy of 89.57% on RAF-DB. Additionally, when the synthetic noise rate
reaches even 30%, the performance of our PT algorithm only degrades by 4.37%.
- Abstract(参考訳): 本稿では,半教師付き学習を生かして,領域内顔表情認識(FER)の性能向上を目指す。
大規模ラベル付きデータとディープラーニングは画像認識の性能を大幅に向上させた。
しかし、FERのパフォーマンスは、トレーニングデータや誤ったアノテーション(ラベルノイズなど)が欠如しているため、まだ理想的ではない。
既存のwild FERデータセットのうち、信頼性の高いデータセットには、堅牢な深層モデルのトレーニングに不十分なデータが含まれている。
この問題に対処するために,信頼度の高いFERデータセットと大規模未ラベル表現画像を有効訓練に用いる半教師付き学習アルゴリズム,Progressive Teacher (PT)を提案する。
一方,PT は FER におけるデータ不足を緩和する半教師付き学習手法を導入している。
一方、ラベル付きトレーニングサンプルを自動的に段階的に選択し、ラベルノイズを緩和する。
PTは、教師付き分類損失の計算に選択されたクリーンラベル付きデータと教師なし整合損失のラベルなしデータを使用する。
RAF-DB と FERPlus を用いた実験により,RAF-DB で89.57% の精度で最先端の性能が得られることを確認した。
さらに,合成雑音率が30%に達すると,ptアルゴリズムの性能は4.37%低下する。
関連論文リスト
- Incremental Self-training for Semi-supervised Learning [56.57057576885672]
ISTは単純だが有効であり、既存の自己学習に基づく半教師あり学習手法に適合する。
提案したISTを5つのデータセットと2種類のバックボーンで検証し,認識精度と学習速度を効果的に向上させる。
論文 参考訳(メタデータ) (2024-04-14T05:02:00Z) - Boosting Semi-Supervised Learning by bridging high and low-confidence
predictions [4.18804572788063]
Pseudo-labelingは半教師あり学習(SSL)において重要な技術である
ReFixMatchと呼ばれる新しい手法を提案し、これはトレーニング中にラベルなしのデータをすべて活用することを目的としている。
論文 参考訳(メタデータ) (2023-08-15T00:27:18Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Incorporating Semi-Supervised and Positive-Unlabeled Learning for
Boosting Full Reference Image Quality Assessment [73.61888777504377]
フル参照(FR)画像品質評価(IQA)は、その知覚的差異をプリズム品質基準で測定することにより、歪み画像の視覚的品質を評価する。
ラベルなしデータは、画像劣化または復元プロセスから容易に収集することができ、ラベルなしのトレーニングデータを利用してFR-IQA性能を高めることを奨励する。
本稿では, 半教師付き, 正の未ラベル学習(PU)を用いて, ラベルなしデータを活用し, オフレーヤの悪影響を軽減することを提案する。
論文 参考訳(メタデータ) (2022-04-19T09:10:06Z) - Debiased Pseudo Labeling in Self-Training [77.83549261035277]
ディープニューラルネットワークは、大規模ラベル付きデータセットの助けを借りて、幅広いタスクで顕著なパフォーマンスを達成する。
ラベル付きデータの要求を軽減するため、ラベル付けされていないデータに擬似ラベルを付けることにより、学術と産業の両方で自己学習が広く使われている。
疑似ラベルの生成と利用を2つの独立した頭文字で分離するデバイアスドを提案する。
論文 参考訳(メタデータ) (2022-02-15T02:14:33Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。