論文の概要: Facial Expression Recognition using Vanilla ViT backbones with MAE
Pretraining
- arxiv url: http://arxiv.org/abs/2207.11081v1
- Date: Fri, 22 Jul 2022 13:39:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-25 13:14:52.525713
- Title: Facial Expression Recognition using Vanilla ViT backbones with MAE
Pretraining
- Title(参考訳): MAE事前訓練によるVanilla ViTバックボーンを用いた顔表情認識
- Authors: Jia Li and Ziyang Zhang
- Abstract要約: 上流タスクからのトレーニングサンプルがなくても,バニラVITが競争精度を達成できるかどうかを検討した。
具体的には、まず、大規模な表情データセット上で、最初のViTをMasked Autoencoder (MAE)として事前訓練する。
次に、人気のある表情データセットのViTを表現ラベルで微調整する。
- 参考スコア(独自算出の注目度): 19.069054529020693
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humans usually convey emotions voluntarily or involuntarily by facial
expressions. Automatically recognizing the basic expression (such as happiness,
sadness, and neutral) from a facial image, i.e., facial expression recognition
(FER), is extremely challenging and attracts much research interests. Large
scale datasets and powerful inference models have been proposed to address the
problem. Though considerable progress has been made, most of the state of the
arts employing convolutional neural networks (CNNs) or elaborately modified
Vision Transformers (ViTs) depend heavily on upstream supervised pretraining.
Transformers are taking place the domination of CNNs in more and more computer
vision tasks. But they usually need much more data to train, since they use
less inductive biases compared with CNNs. To explore whether a vanilla ViT
without extra training samples from upstream tasks is able to achieve
competitive accuracy, we use a plain ViT with MAE pretraining to perform the
FER task. Specifically, we first pretrain the original ViT as a Masked
Autoencoder (MAE) on a large facial expression dataset without expression
labels. Then, we fine-tune the ViT on popular facial expression datasets with
expression labels. The presented method is quite competitive with 90.22\% on
RAF-DB, 61.73\% on AfectNet and can serve as a simple yet strong ViT-based
baseline for FER studies.
- Abstract(参考訳): 人間は通常、表情によって自発的または自発的に感情を伝える。
顔画像、すなわち表情認識(fer)から基本表現(幸福、悲しみ、中立など)を自動的に認識することは極めて困難であり、多くの研究関心を集めている。
この問題に対処するために,大規模データセットと強力な推論モデルが提案されている。
かなりの進歩があったが、畳み込みニューラルネットワーク(cnns)や精巧に改造された視覚トランスフォーマー(vits)を用いた芸術のほとんどが上流の教師付き事前訓練に大きく依存している。
トランスフォーマーは、ますます多くのコンピュータビジョンタスクにおいて、CNNを支配している。
しかし、cnnに比べてインダクティブなバイアスが少ないため、トレーニングにはもっと多くのデータが必要です。
上流タスクからの余分なトレーニングサンプルのないバニラViTが競争精度を達成できるかどうかを探索するために,MAEプレトレーニング付き平易なViTを用いてFERタスクを実行する。
具体的には、まず、表現ラベルなしで大きな表情データセット上で、最初のViTをMasked Autoencoder (MAE)として事前訓練する。
次に、人気のある表情データセットのViTを表現ラベルで微調整する。
提案手法はRAF-DBの90.22\%、AfectNetの61.73\%と非常に競合し、FER研究の単純なViTベースのベースラインとして機能する。
関連論文リスト
- Interpretable Explainability in Facial Emotion Recognition and
Gamification for Data Collection [0.0]
顔の感情認識モデルを訓練するには、大量のデータと高価なアノテーションプロセスが必要である。
我々は,人間の明示的なラベル付けを行なわずに,注釈付き顔感情データを取得するゲーミフィケーション手法を開発した。
プレイヤーの表情認知能力と表情能力は,繰り返しゲームプレイによって著しく向上した。
論文 参考訳(メタデータ) (2022-11-09T09:53:48Z) - PERI: Part Aware Emotion Recognition In The Wild [4.206175795966693]
本稿では視覚的特徴を用いた感情認識に焦点を当てる。
身体のポーズと顔のランドマークの両方から生成されたマスクを用いて、入力画像からキー領域を抽出し、部分認識空間(PAS)画像を作成する。
野生のEMOTICデータセットで公開されている結果について報告する。
論文 参考訳(メタデータ) (2022-10-18T20:01:40Z) - Disentangling Identity and Pose for Facial Expression Recognition [54.50747989860957]
より識別的な特徴表現を学習するために,識別モデルを提案し,不整形表情認識(IPD-FER)モデルを提案する。
アイデンティティエンコーダでは、訓練中に訓練済みの顔認識モデルを利用して固定し、特定の表情訓練データに対する制限を軽減する。
合成された中性画像と同一個体の表情画像との差を比較することにより、表現成分はアイデンティティやポーズからさらに切り離される。
論文 参考訳(メタデータ) (2022-08-17T06:48:13Z) - Emotion-Controllable Generalized Talking Face Generation [6.22276955954213]
顔形状を意識した感情音声生成手法を提案する。
本手法は,中性感情における対象の個人像を1枚だけ微調整することで,任意の顔に適応することができる。
論文 参考訳(メタデータ) (2022-05-02T18:41:36Z) - Learning Fair Face Representation With Progressive Cross Transformer [79.73754444296213]
フェアフェイス認識のためのプログレッシブクロストランス (PCT) 手法を提案する。
我々は,PCTが最先端FR性能を達成しつつ,顔認識におけるバイアスを軽減することができることを示した。
論文 参考訳(メタデータ) (2021-08-11T01:31:14Z) - Learning Facial Representations from the Cycle-consistency of Face [23.23272327438177]
顔特徴の周期一貫性を自由監督信号として導入し、ラベルのない顔画像から顔の表情を学習する。
この学習は、顔の動きサイクルの制約とアイデンティティのサイクルの制約を重畳することによって実現される。
我々のアプローチは既存の手法と競合し、アンタングル表現に埋め込まれたリッチでユニークな情報を実証する。
論文 参考訳(メタデータ) (2021-08-07T11:30:35Z) - I Only Have Eyes for You: The Impact of Masks On Convolutional-Based
Facial Expression Recognition [78.07239208222599]
今回提案したFaceChannelがマスクを持つ人からの表情認識にどのように適応するかを評価します。
また、制約された社会的相互作用シナリオにおける顔の特徴の変化を学習し、組み合わせるためのFaceChannelの本質的な能力を示すために、特定の機能レベルの可視化も行います。
論文 参考訳(メタデータ) (2021-04-16T20:03:30Z) - Human Expression Recognition using Facial Shape Based Fourier
Descriptors Fusion [15.063379178217717]
本論文では,顔面筋の変化に基づく新しい表情認識法を提案する。
幾何学的特徴は、口、目、鼻などの顔領域を特定するために用いられる。
7つの人間の表現の分類にマルチクラスサポートベクターマシンが適用される。
論文 参考訳(メタデータ) (2020-12-28T05:01:44Z) - Learning Emotional-Blinded Face Representations [77.7653702071127]
感情反応に関連する表情に盲目な2つの顔表現を提案する。
この作業は、個人データ保護に関する新たな国際規則によって動機付けられている。
論文 参考訳(メタデータ) (2020-09-18T09:24:10Z) - Facial Expression Editing with Continuous Emotion Labels [76.36392210528105]
深層生成モデルは、自動表情編集の分野で素晴らしい成果を上げている。
連続した2次元の感情ラベルに従って顔画像の表情を操作できるモデルを提案する。
論文 参考訳(メタデータ) (2020-06-22T13:03:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。