論文の概要: Active Learning with Contrastive Pre-training for Facial Expression
Recognition
- arxiv url: http://arxiv.org/abs/2307.02744v1
- Date: Thu, 6 Jul 2023 03:08:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-07 15:25:22.231860
- Title: Active Learning with Contrastive Pre-training for Facial Expression
Recognition
- Title(参考訳): 表情認識のためのコントラスト事前学習によるアクティブラーニング
- Authors: Shuvendu Roy, Ali Etemad
- Abstract要約: 本研究では,3つの公開FERデータセットを用いた最近のアクティブラーニング手法について検討する。
その結果,既存のアクティブラーニング手法はFERの文脈ではうまく動作しないことがわかった。
本稿では,まず,非ラベルデータセット全体に基づいて基礎となる表現を学習する,自己教師付き事前学習を提案する。
- 参考スコア(独自算出の注目度): 19.442685015494316
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Deep learning has played a significant role in the success of facial
expression recognition (FER), thanks to large models and vast amounts of
labelled data. However, obtaining labelled data requires a tremendous amount of
human effort, time, and financial resources. Even though some prior works have
focused on reducing the need for large amounts of labelled data using different
unsupervised methods, another promising approach called active learning is
barely explored in the context of FER. This approach involves selecting and
labelling the most representative samples from an unlabelled set to make the
best use of a limited 'labelling budget'. In this paper, we implement and study
8 recent active learning methods on three public FER datasets, FER13, RAF-DB,
and KDEF. Our findings show that existing active learning methods do not
perform well in the context of FER, likely suffering from a phenomenon called
'Cold Start', which occurs when the initial set of labelled samples is not well
representative of the entire dataset. To address this issue, we propose
contrastive self-supervised pre-training, which first learns the underlying
representations based on the entire unlabelled dataset. We then follow this
with the active learning methods and observe that our 2-step approach shows up
to 9.2% improvement over random sampling and up to 6.7% improvement over the
best existing active learning baseline without the pre-training. We will make
the code for this study public upon publication at:
github.com/ShuvenduRoy/ActiveFER.
- Abstract(参考訳): ディープラーニングは、大規模なモデルと大量のラベル付きデータのおかげで、表情認識(FER)の成功に重要な役割を果たしてきた。
しかし、ラベル付きデータを得るには膨大な人的労力、時間、資金が必要となる。
いくつかの先行研究は、異なる教師なし手法を用いて大量のラベル付きデータの必要性を減らすことに重点を置いているが、アクティブラーニングと呼ばれる別の有望なアプローチは、FERの文脈ではほとんど研究されていない。
このアプローチでは、制限された「ラベル予算」を最大限に活用するために、ラベルなしのセットから最も代表的なサンプルを選択してラベル付けする。
本稿では,3つの公開FERデータセット(FER13,RAF-DB,KDEF)に対して,最近の8つのアクティブラーニング手法を実装し,検討する。
その結果、既存のアクティブラーニング手法はferの文脈ではうまく機能せず、ラベル付きサンプルの初期セットがデータセット全体をよく表していない場合に発生する「コールドスタート」と呼ばれる現象に苦しむことが判明した。
この問題に対処するために,まず,ラベルなしデータセット全体に基づいて基礎となる表現を学習する,自己教師付き事前学習を提案する。
次に、アクティブラーニング手法を用いてこれに従い、2段階のアプローチがランダムサンプリングよりも最大9.2%改善され、事前トレーニングなしで既存の最良のアクティブラーニングベースラインよりも最大6.7%改善されていることを観察する。
この研究のコードは、github.com/ShuvenduRoy/ActiveFERで公開します。
関連論文リスト
- Self-Training for Sample-Efficient Active Learning for Text Classification with Pre-Trained Language Models [3.546617486894182]
我々は,4つのテキスト分類ベンチマークで評価した,新しい効果的な自己学習戦略であるHASTを紹介する。
その結果、4つのデータセットのうち3つに対して、再現された自己学習手法よりも優れており、以前の実験に匹敵する分類結果が得られることがわかった。
論文 参考訳(メタデータ) (2024-06-13T15:06:11Z) - Incremental Self-training for Semi-supervised Learning [56.57057576885672]
ISTは単純だが有効であり、既存の自己学習に基づく半教師あり学習手法に適合する。
提案したISTを5つのデータセットと2種類のバックボーンで検証し,認識精度と学習速度を効果的に向上させる。
論文 参考訳(メタデータ) (2024-04-14T05:02:00Z) - XAL: EXplainable Active Learning Makes Classifiers Better Low-resource Learners [71.8257151788923]
低リソーステキスト分類のための新しい説明可能なアクティブラーニングフレームワーク(XAL)を提案する。
XALは分類器に対して、推論を正当化し、合理的な説明ができないラベルのないデータを掘り下げることを推奨している。
6つのデータセットの実験では、XALは9つの強いベースラインに対して一貫した改善を達成している。
論文 参考訳(メタデータ) (2023-10-09T08:07:04Z) - Exploring the Boundaries of Semi-Supervised Facial Expression
Recognition: Learning from In-Distribution, Out-of-Distribution, and
Unconstrained Data [19.442685015494316]
表情認識(FER)における最新の半教師あり手法11について検討する。
本研究は,非流通,アウト・オブ・ディストリビューション,制約のない,非常に小さなデータからの半教師付き学習を対象とする。
以上の結果から,FixMatchは非分散データに対して常に優れたパフォーマンスを実現していることを示す一方,ReMixMatchは非分散データ,非制約データ,希少データシナリオにおいて,すべてのメソッドにおいて際立っている。
論文 参考訳(メタデータ) (2023-06-02T01:40:08Z) - Responsible Active Learning via Human-in-the-loop Peer Study [88.01358655203441]
我々は,データプライバシを同時に保持し,モデルの安定性を向上させるために,Pear Study Learning (PSL) と呼ばれる責任あるアクティブラーニング手法を提案する。
まず,クラウドサイドのタスク学習者(教師)から未学習データを分離する。
トレーニング中、タスク学習者は軽量なアクティブ学習者に指示し、アクティブサンプリング基準に対するフィードバックを提供する。
論文 参考訳(メタデータ) (2022-11-24T13:18:27Z) - SURF: Semi-supervised Reward Learning with Data Augmentation for
Feedback-efficient Preference-based Reinforcement Learning [168.89470249446023]
我々は、大量のラベルなしサンプルとデータ拡張を利用する半教師付き報酬学習フレームワークSURFを提案する。
報奨学習にラベルのないサンプルを活用するために,選好予測器の信頼性に基づいてラベルのないサンプルの擬似ラベルを推定する。
本実験は, ロボット操作作業における嗜好に基づく手法のフィードバック効率を有意に向上させることを実証した。
論文 参考訳(メタデータ) (2022-03-18T16:50:38Z) - Towards Reducing Labeling Cost in Deep Object Detection [61.010693873330446]
本稿では,検知器の不確実性と頑健性の両方を考慮した,アクティブラーニングのための統一的なフレームワークを提案する。
提案手法は, 確率分布のドリフトを抑えながら, 極めて確実な予測を擬似ラベル化することができる。
論文 参考訳(メタデータ) (2021-06-22T16:53:09Z) - Ask-n-Learn: Active Learning via Reliable Gradient Representations for
Image Classification [29.43017692274488]
深い予測モデルは、ラベル付きトレーニングデータという形で人間の監督に依存する。
Ask-n-Learnは,各アルゴリズムで推定されたペスドラベルを用いて得られる勾配埋め込みに基づく能動的学習手法である。
論文 参考訳(メタデータ) (2020-09-30T05:19:56Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。