論文の概要: Seven Basic Expression Recognition Using ResNet-18
- arxiv url: http://arxiv.org/abs/2107.04569v1
- Date: Fri, 9 Jul 2021 17:40:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-12 13:45:28.602421
- Title: Seven Basic Expression Recognition Using ResNet-18
- Title(参考訳): ResNet-18を用いた7つの基本表現認識
- Authors: Satnam Singh, Doris Schicker
- Abstract要約: 我々は、感情行動分析(ABAW)の問題に対処するResNet-18アーキテクチャを提案する。
我々は、感情行動分析(ABAW)の問題に対処するResNet-18アーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose to use a ResNet-18 architecture that was pre-trained on the FER+
dataset for tackling the problem of affective behavior analysis in-the-wild
(ABAW) for classification of the seven basic expressions, namely, neutral,
anger, disgust, fear, happiness, sadness and surprise. As part of the second
workshop and competition on affective behavior analysis in-the-wild (ABAW2), a
database consisting of 564 videos with around 2.8M frames is provided along
with labels for these seven basic expressions. We resampled the dataset to
counter class-imbalances by under-sampling the over-represented classes and
over-sampling the under-represented classes along with class-wise weights. To
avoid overfitting we performed data-augmentation and used L2 regularisation.
Our classifier reaches an ABAW2 score of 0.4 and therefore exceeds the baseline
results provided by the hosts of the competition.
- Abstract(参考訳): 本稿では, fer+データセット上で事前学習したResNet-18アーキテクチャを用いて, 感情行動分析(ABAW)の問題に対処し, 中立性, 怒り, 嫌悪感, 恐怖, 幸福, 悲しみ, 驚きの7つの基本表現の分類を行う。
第2回ワークショップと第2回感情行動分析コンテスト(ABAW2)では、約2.8Mフレームの564ビデオからなるデータベースと、これら7つの基本表現のラベルが提供される。
我々は、過剰表現されたクラスをアンダーサンプリングし、過表現されたクラスをクラスワイドと共にオーバーサンプリングすることで、クラス不均衡に対処するためにデータセットを再サンプリングした。
オーバーフィッティングを避けるためにデータ表示を行い、l2正規化を使った。
我々の分類器は、abaw2スコア0.4に達し、競争相手が提供したベースライン結果を超える。
関連論文リスト
- 7th ABAW Competition: Multi-Task Learning and Compound Expression Recognition [46.730335566738006]
本稿では,第7回ABAWコンペティションについて述べる。
ABAWコンペティションは、人間の表現と行動を理解するための新しい課題に対処する。
論文 参考訳(メタデータ) (2024-07-04T11:04:29Z) - CLIP the Bias: How Useful is Balancing Data in Multimodal Learning? [72.19502317793133]
比較言語画像事前学習(CLIP)におけるバイアス軽減のためのデータバランスの有効性について検討する。
表現バイアスと相関バイアスの両方を低減するために,Multi-Modal Moment Matching (M4) と呼ばれる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-07T14:43:17Z) - Memory Consistency Guided Divide-and-Conquer Learning for Generalized
Category Discovery [56.172872410834664]
一般カテゴリー発見(GCD)は、半教師付き学習のより現実的で挑戦的な設定に対処することを目的としている。
メモリ一貫性を誘導する分枝・分枝学習フレームワーク(MCDL)を提案する。
本手法は,画像認識の目に見えるクラスと見えないクラスの両方において,最先端のモデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-24T09:39:45Z) - Balanced Classification: A Unified Framework for Long-Tailed Object
Detection [74.94216414011326]
従来の検出器は、分類バイアスによる長期データを扱う際の性能劣化に悩まされる。
本稿では,カテゴリ分布の格差に起因する不平等の適応的是正を可能にする,BAlanced CLassification (BACL) と呼ばれる統一フレームワークを提案する。
BACLは、さまざまなバックボーンとアーキテクチャを持つさまざまなデータセット間で、一貫してパフォーマンス改善を実現している。
論文 参考訳(メタデータ) (2023-08-04T09:11:07Z) - EmotiEffNet Facial Features in Uni-task Emotion Recognition in Video at
ABAW-5 competition [7.056222499095849]
第5回ABAW(Affective Behavior Analysis in-the-Wild)コンペティションの結果を報告する。
The use of the pre-trained convolutional network from the EmotiEffNet family for frame-level feature extract。
論文 参考訳(メタデータ) (2023-03-16T08:57:33Z) - Co-supervised learning paradigm with conditional generative adversarial
networks for sample-efficient classification [8.27719348049333]
本稿では,サンプル効率のよい協調学習パラダイム(SEC-CGAN)を提案する。
SEC-CGANは、分類器と共にトレーニングされ、トレーニングプロセス中に注釈付きデータにセマンティクスを条件付き、信頼性に配慮した合成例を補完する。
実験により、SEC-CGAN は外部分類器 GAN とベースライン ResNet-18 の分類器より優れていることが示された。
論文 参考訳(メタデータ) (2022-12-27T19:24:31Z) - Expression Classification using Concatenation of Deep Neural Network for
the 3rd ABAW3 Competition [4.772214437523759]
第3回Affective Behavior Analysis In-The-Wildコンペティションでは、ビデオからの人間の顔の基本的な表現を含む8つのクラスを含む表現分類を行う。
本稿では,表現分類タスクに対してRegNet,Attention Module,Transformerの組合せ表現を行う。
論文 参考訳(メタデータ) (2022-03-24T07:36:21Z) - The Overlooked Classifier in Human-Object Interaction Recognition [82.20671129356037]
クラス間の意味的相関を分類ヘッドにエンコードし,重みをHOIの言語埋め込みで初期化する。
我々は,LSE-Sign という新しい損失を,長い尾を持つデータセット上でのマルチラベル学習を強化するために提案する。
我々は,物体検出と人間のポーズを明確なマージンで求める最先端技術よりも優れた,検出不要なHOI分類を可能にする。
論文 参考訳(メタデータ) (2022-03-10T23:35:00Z) - Weakly Supervised Contrastive Learning [68.47096022526927]
この問題に対処するために,弱教師付きコントラスト学習フレームワーク(WCL)を導入する。
WCLはResNet50を使用して65%と72%のImageNet Top-1の精度を実現している。
論文 参考訳(メタデータ) (2021-10-10T12:03:52Z) - Deep F-measure Maximization for End-to-End Speech Understanding [52.36496114728355]
本稿では,F測度に対する微分可能な近似法を提案し,標準バックプロパゲーションを用いてネットワークをトレーニングする。
我々は、アダルト、コミュニティ、犯罪の2つの標準フェアネスデータセットの実験を行い、ATISデータセットの音声・インテリジェンス検出と音声・COCOデータセットの音声・イメージ概念分類を行った。
これらの4つのタスクのすべてにおいて、F測定は、クロスエントロピー損失関数で訓練されたモデルと比較して、最大8%の絶対的な絶対的な改善を含む、マイクロF1スコアの改善をもたらす。
論文 参考訳(メタデータ) (2020-08-08T03:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。