論文の概要: Using Self-Supervised Co-Training to Improve Facial Representation
- arxiv url: http://arxiv.org/abs/2105.06421v1
- Date: Thu, 13 May 2021 16:56:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-14 14:11:55.460563
- Title: Using Self-Supervised Co-Training to Improve Facial Representation
- Title(参考訳): 自己監督による顔表現の改善
- Authors: Mahdi Pourmirzaei, Farzaneh Esmaili, Gholam Ali Montazer
- Abstract要約: ImageNetプレトレーニングが顔表情認識(FER)に及ぼす影響を、異なる拡張レベル下で検証した。
ハイブリッドラーニング (HL) と呼ばれる標準教師付き学習 (SL) のためのフレームワークが提案された。
hlの効果は、頭部ポーズ推定と性別認識という2つの異なる顔関連問題に対して示され、それぞれ9%と1%の誤差率を低下させた。
- 参考スコア(独自算出の注目度): 2.0625936401496237
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, at first, the impact of ImageNet pre-training on Facial
Expression Recognition (FER) was tested under different augmentation levels. It
could be seen from the results that training from scratch could reach better
performance compared to ImageNet fine-tuning at stronger augmentation levels.
After that, a framework was proposed for standard Supervised Learning (SL),
called Hybrid Learning (HL) which used Self-Supervised co-training with SL in
Multi-Task Learning (MTL) manner. Leveraging Self-Supervised Learning (SSL)
could gain additional information from input data like spatial information from
faces which helped the main SL task. It is been investigated how this method
could be used for FER problems with self-supervised pre-tasks such as Jigsaw
puzzling and in-painting. The supervised head (SH) was helped by these two
methods to lower the error rate under different augmentations and low data
regime in the same training settings. The state-of-the-art was reached on
AffectNet via two completely different HL methods, without utilizing additional
datasets. Moreover, HL's effect was shown on two different facial-related
problem, head poses estimation and gender recognition, which concluded to
reduce in error rate by up to 9% and 1% respectively. Also, we saw that the HL
methods prevented the model from reaching overfitting.
- Abstract(参考訳): 本稿では,まず,画像ネットによる表情認識(fer)の事前学習による影響について検討した。
この結果から、ImageNetの強化レベルの微調整に比べて、スクラッチからのトレーニングがパフォーマンスの向上につながることが分かる。
その後,MTL(Multi-Task Learning)方式で,自己監督学習とSLを併用した,HL(Hybrid Learning)と呼ばれる標準スーパービジョン学習のためのフレームワークが提案された。
自己監視学習(SSL)を活用することで、メインのSLタスクに役立つ顔から空間情報などの入力データから追加情報を得ることができる。
この手法がjigsaw puzzlingやin-paintingといった自己教師付きプリタスクのfer問題にどのように使われるか検討されている。
教師付きヘッド(SH)は、同じトレーニング環境で異なる拡張と低いデータ構造の下でエラー率を下げる2つの方法によって助けられた。
AffectNetの最先端は、2つのまったく異なるHLメソッドを通じて、追加のデータセットを使わずに到達した。
さらに、hlの効果は、頭部ポーズ推定と性別認識という2つの異なる顔関連問題に対して示され、それぞれ9%と1%の誤差率を低下させる結果となった。
また,HL法ではモデルがオーバーフィットするのを防ぐことができた。
関連論文リスト
- Meta-Tasks: An alternative view on Meta-Learning Regularization [17.738450255829633]
本稿では,未ラベルのサンプルを生かしながら,トレーニングと新規タスクの両方に一般化できる新しいソリューションを提案する。
実験の結果,提案手法はプロトタイプネットワークを3.9%上回る性能を示した。
論文 参考訳(メタデータ) (2024-02-27T21:15:40Z) - Rethinking Self-Supervised Visual Representation Learning in
Pre-training for 3D Human Pose and Shape Estimation [57.206129938611454]
自己教師付き表現学習(SSL)法は、オブジェクト検出などの視覚タスクのためのImageNet分類前トレーニングよりも優れている。
我々は、SSLの効果を実証的に研究し分析し、3DHPSEの事前学習方法と比較した。
我々の観察では、現在のSSLの3DHPSEへの初歩的な適用に挑戦し、事前トレーニングの側面において、他のデータ型の価値を啓蒙する。
論文 参考訳(メタデータ) (2023-03-09T16:17:52Z) - Understanding and Improving the Role of Projection Head in
Self-Supervised Learning [77.59320917894043]
自己教師付き学習(SSL)は、人間のラベル付きデータアノテーションにアクセスせずに有用な特徴表現を作成することを目的としている。
現在の対照的な学習アプローチは、InfoNCEの目的を最適化するために、あるバックボーンネットワークの端にパラメータ化されたプロジェクションヘッドを付加する。
学習可能なプロジェクションヘッドが、トレーニング後にそれを破棄する場合、なぜ必要となるのか?
論文 参考訳(メタデータ) (2022-12-22T05:42:54Z) - Weighted Ensemble Self-Supervised Learning [67.24482854208783]
組み立ては、モデルパフォーマンスを高めるための強力なテクニックであることが証明されている。
我々は,データ依存型重み付きクロスエントロピー損失を許容するフレームワークを開発した。
提案手法は、ImageNet-1K上での複数の評価指標において、両者に優れる。
論文 参考訳(メタデータ) (2022-11-18T02:00:17Z) - Siamese Prototypical Contrastive Learning [24.794022951873156]
コントラスト型自己教師学習(Contrastive Self-supervised Learning, CSL)は、大規模データから意味のある視覚的表現を教師なしアプローチで学習する実践的ソリューションである。
本稿では,単純かつ効果的なコントラスト学習フレームワークを導入することで,この問題に対処する。
重要な洞察は、シアメスタイルのメートル法損失を用いて、原型間特徴間の距離を増大させながら、原型内特徴と一致させることである。
論文 参考訳(メタデータ) (2022-08-18T13:25:30Z) - On Higher Adversarial Susceptibility of Contrastive Self-Supervised
Learning [104.00264962878956]
コントラスト型自己教師学習(CSL)は,画像と映像の分類において,教師あり学習のパフォーマンスに適合するか上回っている。
2つの学習パラダイムによって誘導される表現の性質が似ているかどうかは、いまだに不明である。
我々は,CSL表現空間における単位超球面上のデータ表現の均一分布を,この現象の鍵となる要因として同定する。
CSLトレーニングでモデルロバスト性を改善するのにシンプルだが有効である戦略を考案する。
論文 参考訳(メタデータ) (2022-07-22T03:49:50Z) - SLIP: Self-supervision meets Language-Image Pre-training [79.53764315471543]
自己指導型学習が視覚表現学習における言語指導の活用に役立つかどうかを考察する。
自己教師付き学習とCLIP事前学習を組み合わせたマルチタスク学習フレームワークSLIPを紹介する。
SLIPは、自己監督や言語監督よりも優れたパフォーマンスを享受しています。
論文 参考訳(メタデータ) (2021-12-23T18:07:13Z) - Self-supervised Contrastive Learning of Multi-view Facial Expressions [9.949781365631557]
顔表情認識(FER)は,人間とコンピュータのインタラクションシステムにおいて重要な構成要素である。
本稿では,多視点表情のコントラスト学習(CL-MEx)を提案する。
論文 参考訳(メタデータ) (2021-08-15T11:23:34Z) - How Self-Supervised Learning Can be Used for Fine-Grained Head Pose
Estimation? [2.0625936401496237]
SSLはどのようにしてヘッドポーズ推定に使えるのか?
SSLプリテキストタスクとしてジグソーパズリングとローテーションの修正版が使用されている。
HTML メソッドによる誤り率の 11% を SL と比較した。
論文 参考訳(メタデータ) (2021-08-10T19:34:45Z) - Multi-Agent Semi-Siamese Training for Long-tail and Shallow Face
Learning [54.13876727413492]
多くの現実世界の顔認識シナリオでは、トレーニングデータセットの深さは浅いため、IDごとに2つの顔画像しか利用できません。
非均一なサンプルの増加により、このような問題はより一般的なケース、すなわち長い尾の顔学習に変換される。
これらの問題に対処するために,マルチエージェントセミシアントレーニング(masst)という高度なソリューションを導入する。
広範な実験と比較は、長い尾と浅い顔学習のためのMASSTの利点を示しています。
論文 参考訳(メタデータ) (2021-05-10T04:57:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。