論文の概要: Exploring the Boundaries of Semi-Supervised Facial Expression
Recognition: Learning from In-Distribution, Out-of-Distribution, and
Unconstrained Data
- arxiv url: http://arxiv.org/abs/2306.01229v1
- Date: Fri, 2 Jun 2023 01:40:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-05 17:02:54.434814
- Title: Exploring the Boundaries of Semi-Supervised Facial Expression
Recognition: Learning from In-Distribution, Out-of-Distribution, and
Unconstrained Data
- Title(参考訳): 半教師付き表情認識の境界を探る : 分布内,分布外,非拘束データから学ぶ
- Authors: Shuvendu Roy, Ali Etemad
- Abstract要約: 表情認識(FER)における最新の半教師あり手法11について検討する。
本研究は,非流通,アウト・オブ・ディストリビューション,制約のない,非常に小さなデータからの半教師付き学習を対象とする。
以上の結果から,FixMatchは非分散データに対して常に優れたパフォーマンスを実現していることを示す一方,ReMixMatchは非分散データ,非制約データ,希少データシナリオにおいて,すべてのメソッドにおいて際立っている。
- 参考スコア(独自算出の注目度): 19.442685015494316
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Deep learning-based methods have been the key driving force behind much of
the recent success of facial expression recognition (FER) systems. However, the
need for large amounts of labelled data remains a challenge. Semi-supervised
learning offers a way to overcome this limitation, allowing models to learn
from a small amount of labelled data along with a large unlabelled dataset.
While semi-supervised learning has shown promise in FER, most current methods
from general computer vision literature have not been explored in the context
of FER. In this work, we present a comprehensive study on 11 of the most recent
semi-supervised methods, in the context of FER, namely Pi-model, Pseudo-label,
Mean Teacher, VAT, UDA, MixMatch, ReMixMatch, FlexMatch, CoMatch, and CCSSL.
Our investigation covers semi-supervised learning from in-distribution,
out-of-distribution, unconstrained, and very small unlabelled data. Our
evaluation includes five FER datasets plus one large face dataset for
unconstrained learning. Our results demonstrate that FixMatch consistently
achieves better performance on in-distribution unlabelled data, while
ReMixMatch stands out among all methods for out-of-distribution, unconstrained,
and scarce unlabelled data scenarios. Another significant observation is that
semi-supervised learning produces a reasonable improvement over supervised
learning, regardless of whether in-distribution, out-of-distribution, or
unconstrained data is utilized as the unlabelled set. We also conduct
sensitivity analyses on critical hyper-parameters for the two best methods of
each setting.
- Abstract(参考訳): 深層学習に基づく手法が、近年の顔表情認識(FER)システムの成功の鍵となった。
しかし、大量のラベル付きデータの必要性は依然として課題である。
半教師付き学習は、この制限を克服する手段を提供し、小さなラベル付きデータと大きなラベルなしデータセットからモデルを学ぶことができる。
半教師付き学習はferに有望であるが、一般的なコンピュータビジョン文学の手法のほとんどはferの文脈では研究されていない。
そこで本研究では,Pseudo-label, Mean Teacher, VAT, UDA, MixMatch, ReMixMatch, FlexMatch, CoMatch, CCSSLのコンテキストにおいて,最新の半教師付き手法の11つについて概説する。
本研究は,非流通,アウト・オブ・ディストリビューション,制約のない,非常に小さなデータからの半教師付き学習を対象とする。
評価対象は、FERデータセット5つと、制約なし学習のための大きな顔データセット1つである。
以上の結果から,FixMatchは非分散データに対して常に優れたパフォーマンスを実現していることを示す一方,ReMixMatchは非分散データ,非制約データ,希少データシナリオにおいて,すべてのメソッドにおいて際立っている。
もう1つの重要な観察は、半教師付き学習が教師付き学習よりも合理的な改善をもたらすことである。
また,各設定の最適な2つの手法について,臨界ハイパーパラメータの感度解析を行う。
関連論文リスト
- Incremental Self-training for Semi-supervised Learning [56.57057576885672]
ISTは単純だが有効であり、既存の自己学習に基づく半教師あり学習手法に適合する。
提案したISTを5つのデータセットと2種類のバックボーンで検証し,認識精度と学習速度を効果的に向上させる。
論文 参考訳(メタデータ) (2024-04-14T05:02:00Z) - Scaling Up Semi-supervised Learning with Unconstrained Unlabelled Data [27.75143621836449]
制約のないデータから効果的な表現を学習できる半教師付き学習フレームワークUnMixMatchを提案する。
4つの一般的なデータセットに対して広範な実験を行い、4.79%の性能向上を伴う既存の半教師付き手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-06-02T01:07:14Z) - Adaptive Negative Evidential Deep Learning for Open-set Semi-supervised Learning [69.81438976273866]
オープンセット半教師付き学習(Open-set SSL)は、ラベル付きデータ(inliers)で観測されない新しいカテゴリ(outliers)を含むラベル付きデータとテストデータを含む、より実践的なシナリオである。
本研究では,様々な不確かさを定量化するための外乱検出器として顕在的深層学習(EDL)を導入し,自己学習と推論のための異なる不確実性指標を設計する。
Inlierとoutlierの両方を含むラベルなしデータセットに適合するように、新しい適応的負の最適化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-21T09:07:15Z) - Analysis of Semi-Supervised Methods for Facial Expression Recognition [19.442685015494316]
画像認識のためのディープニューラルネットワークのトレーニングは、大規模な人間の注釈付きデータを必要とすることが多い。
ラベル付きデータに対するディープ・ニューラル・ソリューションの信頼性を低減するための半教師付き手法が提案されている。
本研究は,クラス毎に250以上のラベル付きサンプルを用いて,既存の半教師付きメソッドをトレーニングする場合,全ラベル付きデータセットでトレーニングした完全教師付きメソッドと同等のパフォーマンスが得られることを示す。
論文 参考訳(メタデータ) (2022-07-31T23:58:35Z) - A Survey of Learning on Small Data: Generalization, Optimization, and
Challenge [101.27154181792567]
ビッグデータの一般化能力を近似した小さなデータについて学ぶことは、AIの究極の目的の1つである。
この調査はPACフレームワークの下でのアクティブサンプリング理論に従い、小さなデータにおける学習の一般化誤差とラベルの複雑さを分析した。
効率的な小さなデータ表現の恩恵を受けるかもしれない複数のデータアプリケーションについて調査する。
論文 参考訳(メタデータ) (2022-07-29T02:34:19Z) - Semi-supervised Deep Learning for Image Classification with Distribution
Mismatch: A Survey [1.5469452301122175]
ディープラーニングモデルは、予測モデルをトレーニングするためにラベル付き観測の豊富な部分に依存します。
ラベル付きデータ観測を収集することは高価であり、ディープラーニングモデルの使用は理想的ではない。
多くの状況では、異なる非競合データソースが利用可能である。
これにより、ラベル付きデータセットと非ラベル付きデータセットの間にかなりの分散ミスマッチが発生するリスクが生じる。
論文 参考訳(メタデータ) (2022-03-01T02:46:00Z) - Uncertainty-Aware Deep Co-training for Semi-supervised Medical Image
Segmentation [4.935055133266873]
本研究では,モデルが意図的に領域を学習するための新しい不確実性認識方式を提案する。
具体的には,不確実性マップを得るためにモンテカルロサンプリングを推定法として利用する。
後ろ向きのプロセスでは、ネットワークの収束を加速するために、教師なしの損失と教師なしの損失を共同で処理する。
論文 参考訳(メタデータ) (2021-11-23T03:26:24Z) - OpenCoS: Contrastive Semi-supervised Learning for Handling Open-set
Unlabeled Data [65.19205979542305]
ラベル付けされていないデータには、実際にはクラス外のサンプルが含まれる。
OpenCoSは、このリアルな半教師付き学習シナリオを扱う方法である。
論文 参考訳(メタデータ) (2021-06-29T06:10:05Z) - Learning to Count in the Crowd from Limited Labeled Data [109.2954525909007]
我々は,限られた数のラベル付きサンプルから参加者を数えることを学ぶことで,アノテーションの努力を減らすことに重点を置いている。
具体的には,未ラベルデータに対する擬似地下真理推定を含むガウス過程に基づく反復学習機構を提案する。
論文 参考訳(メタデータ) (2020-07-07T04:17:01Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z) - ROAM: Random Layer Mixup for Semi-Supervised Learning in Medical Imaging [43.26668942258135]
医療画像のセグメンテーションは、機械学習の手法が抱える大きな課題の1つだ。
我々はRandOm lAyer MixupのROAMを提案する。
ROAMは、全脳セグメンテーションに対してそれぞれ2.40%と16.50%の相対的な改善を施した、完全に監督された(89.5%)と半監督された(87.0%)設定のSOTA(State-of-the-art)を達成している。
論文 参考訳(メタデータ) (2020-03-20T18:07:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。