論文の概要: Omni-supervised Facial Expression Recognition via Distilled Data
- arxiv url: http://arxiv.org/abs/2005.08551v5
- Date: Thu, 9 Dec 2021 04:07:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 23:47:48.721222
- Title: Omni-supervised Facial Expression Recognition via Distilled Data
- Title(参考訳): 蒸留データによる顔表情認識
- Authors: Ping Liu, Yunchao Wei, Zibo Meng, Weihong Deng, Joey Tianyi Zhou, Yi
Yang
- Abstract要約: ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
- 参考スコア(独自算出の注目度): 120.11782405714234
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Facial expression plays an important role in understanding human emotions.
Most recently, deep learning based methods have shown promising for facial
expression recognition. However, the performance of the current
state-of-the-art facial expression recognition (FER) approaches is directly
related to the labeled data for training. To solve this issue, prior works
employ the pretrain-and-finetune strategy, i.e., utilize a large amount of
unlabeled data to pretrain the network and then finetune it by the labeled
data. As the labeled data is in a small amount, the final network performance
is still restricted. From a different perspective, we propose to perform
omni-supervised learning to directly exploit reliable samples in a large amount
of unlabeled data for network training. Particularly, a new dataset is firstly
constructed using a primitive model trained on a small number of labeled
samples to select samples with high confidence scores from a face dataset,
i.e., MS-Celeb-1M, based on feature-wise similarity. We experimentally verify
that the new dataset created in such an omni-supervised manner can
significantly improve the generalization ability of the learned FER model.
However, as the number of training samples grows, computational cost and
training time increase dramatically. To tackle this, we propose to apply a
dataset distillation strategy to compress the created dataset into several
informative class-wise images, significantly improving the training efficiency.
We have conducted extensive experiments on widely used benchmarks, where
consistent performance gains can be achieved under various settings using the
proposed framework. More importantly, the distilled dataset has shown its
capabilities of boosting the performance of FER with negligible additional
computational costs.
- Abstract(参考訳): 表情は人間の感情を理解する上で重要な役割を果たす。
最近では、深層学習に基づく手法が表情認識に有望であることが示されている。
しかし、現在最先端の表情認識(fer)アプローチの性能は、トレーニングのためのラベル付きデータに直接関連している。
この問題を解決するために、先行研究は事前訓練とファインチューン戦略、すなわち大量の未ラベルデータを用いてネットワークを事前訓練し、ラベル付きデータで精査する。
ラベル付きデータは少量であるため、最終的なネットワーク性能は依然として制限されている。
異なる視点から,ネットワークトレーニングのための大量の未ラベルデータにおいて,信頼度の高いサンプルを直接活用するためのオムニ教師付き学習を提案する。
特に、新しいデータセットは、少数のラベル付きサンプルに基づいて訓練された原始モデルを用いて構築され、顔データセット(MS-Celeb-1M)から高い信頼度を持つサンプルを選択する。
我々は,学習したferモデルの一般化能力を大幅に向上させることができることを実験的に検証した。
しかし、トレーニングサンプルの数が増えるにつれて、計算コストとトレーニング時間は劇的に増加する。
そこで本研究では,生成したデータセットを複数の情報的クラスワイド画像に圧縮し,トレーニング効率を大幅に向上させるため,データセット蒸留方式を提案する。
提案したフレームワークを用いて,様々な設定で一貫した性能向上が達成されるような,広く利用されているベンチマークに関する広範な実験を行った。
さらに重要なことに、蒸留データセットは、追加の計算コストを無視してFERの性能を高める能力を示している。
関連論文リスト
- In-Domain Self-Supervised Learning Improves Remote Sensing Image Scene
Classification [5.323049242720532]
リモートセンシング画像分類のための有望なアプローチとして,自己教師付き学習が登場している。
そこで本研究では,14の下流データセットにまたがる自己教師型事前学習戦略について検討し,その効果を評価する。
論文 参考訳(メタデータ) (2023-07-04T10:57:52Z) - ASPEST: Bridging the Gap Between Active Learning and Selective
Prediction [56.001808843574395]
選択予測は、不確実な場合の予測を棄却する信頼性のあるモデルを学ぶことを目的としている。
アクティブラーニングは、最も有意義な例を問うことで、ラベリングの全体、すなわち人間の依存度を下げることを目的としている。
本研究では,移動対象領域からより情報のあるサンプルを検索することを目的とした,新たな学習パラダイムである能動的選択予測を導入する。
論文 参考訳(メタデータ) (2023-04-07T23:51:07Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Self-Distillation for Further Pre-training of Transformers [83.84227016847096]
我々は、さらなる事前学習段階の正則化として自己蒸留を提案する。
画像およびテキスト分類タスクのための様々なベンチマークデータセットにおける自己蒸留の有効性を実証的に検証する。
論文 参考訳(メタデータ) (2022-09-30T02:25:12Z) - Self-Supervised Pre-Training for Transformer-Based Person
Re-Identification [54.55281692768765]
トランスフォーマーに基づく教師付き事前訓練は、人物再識別(ReID)において大きなパフォーマンスを達成する
ImageNetとReIDデータセットのドメインギャップのため、通常、パフォーマンスを高めるために、より大きなトレーニング済みデータセットが必要です。
この研究は、データとモデル構造の観点から、事前トレーニングデータセットとReIDデータセットのギャップを軽減することを目的としている。
論文 参考訳(メタデータ) (2021-11-23T18:59:08Z) - SelfHAR: Improving Human Activity Recognition through Self-training with
Unlabeled Data [9.270269467155547]
SelfHARは、ラベルなしデータセットを利用して小さなラベル付きデータセットを補完する半教師付きモデルである。
提案手法は教師による自己学習と,ラベル付きデータセットとラベル付きデータセットの知識を融合する。
SelfHARはデータ効率が高く、教師付きアプローチの10倍のラベル付きデータを使用して、同様のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-02-11T15:40:35Z) - Data Impressions: Mining Deep Models to Extract Samples for Data-free
Applications [26.48630545028405]
データインプレッションはトレーニングデータのプロキシとして機能し、さまざまなタスクを実現するために使用することができる。
いくつかのコンピュータビジョンタスクにおけるデータインプレッションの適用性を示す。
論文 参考訳(メタデータ) (2021-01-15T11:37:29Z) - Noisy Student Training using Body Language Dataset Improves Facial
Expression Recognition [10.529781894367877]
本稿では,ラベル付きデータセットと非ラベル付きデータセットを組み合わせた自己学習手法を提案する。
実験分析により,ノイズの多い学生ネットワークを反復的にトレーニングすることで,より優れた結果が得られることが示された。
提案手法は,ベンチマークデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2020-08-06T13:45:52Z) - Learning to Count in the Crowd from Limited Labeled Data [109.2954525909007]
我々は,限られた数のラベル付きサンプルから参加者を数えることを学ぶことで,アノテーションの努力を減らすことに重点を置いている。
具体的には,未ラベルデータに対する擬似地下真理推定を含むガウス過程に基づく反復学習機構を提案する。
論文 参考訳(メタデータ) (2020-07-07T04:17:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。