論文の概要: Seven Basic Expression Recognition Using ResNet-18
- arxiv url: http://arxiv.org/abs/2107.04569v1
- Date: Fri, 9 Jul 2021 17:40:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-12 13:45:28.602421
- Title: Seven Basic Expression Recognition Using ResNet-18
- Title(参考訳): ResNet-18を用いた7つの基本表現認識
- Authors: Satnam Singh, Doris Schicker
- Abstract要約: 我々は、感情行動分析(ABAW)の問題に対処するResNet-18アーキテクチャを提案する。
我々は、感情行動分析(ABAW)の問題に対処するResNet-18アーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose to use a ResNet-18 architecture that was pre-trained on the FER+
dataset for tackling the problem of affective behavior analysis in-the-wild
(ABAW) for classification of the seven basic expressions, namely, neutral,
anger, disgust, fear, happiness, sadness and surprise. As part of the second
workshop and competition on affective behavior analysis in-the-wild (ABAW2), a
database consisting of 564 videos with around 2.8M frames is provided along
with labels for these seven basic expressions. We resampled the dataset to
counter class-imbalances by under-sampling the over-represented classes and
over-sampling the under-represented classes along with class-wise weights. To
avoid overfitting we performed data-augmentation and used L2 regularisation.
Our classifier reaches an ABAW2 score of 0.4 and therefore exceeds the baseline
results provided by the hosts of the competition.
- Abstract(参考訳): 本稿では, fer+データセット上で事前学習したResNet-18アーキテクチャを用いて, 感情行動分析(ABAW)の問題に対処し, 中立性, 怒り, 嫌悪感, 恐怖, 幸福, 悲しみ, 驚きの7つの基本表現の分類を行う。
第2回ワークショップと第2回感情行動分析コンテスト(ABAW2)では、約2.8Mフレームの564ビデオからなるデータベースと、これら7つの基本表現のラベルが提供される。
我々は、過剰表現されたクラスをアンダーサンプリングし、過表現されたクラスをクラスワイドと共にオーバーサンプリングすることで、クラス不均衡に対処するためにデータセットを再サンプリングした。
オーバーフィッティングを避けるためにデータ表示を行い、l2正規化を使った。
我々の分類器は、abaw2スコア0.4に達し、競争相手が提供したベースライン結果を超える。
関連論文リスト
- Balanced Classification: A Unified Framework for Long-Tailed Object
Detection [74.94216414011326]
従来の検出器は、分類バイアスによる長期データを扱う際の性能劣化に悩まされる。
本稿では,カテゴリ分布の格差に起因する不平等の適応的是正を可能にする,BAlanced CLassification (BACL) と呼ばれる統一フレームワークを提案する。
BACLは、さまざまなバックボーンとアーキテクチャを持つさまざまなデータセット間で、一貫してパフォーマンス改善を実現している。
論文 参考訳(メタデータ) (2023-08-04T09:11:07Z) - EmotiEffNet Facial Features in Uni-task Emotion Recognition in Video at
ABAW-5 competition [7.056222499095849]
第5回ABAW(Affective Behavior Analysis in-the-Wild)コンペティションの結果を報告する。
The use of the pre-trained convolutional network from the EmotiEffNet family for frame-level feature extract。
論文 参考訳(メタデータ) (2023-03-16T08:57:33Z) - Co-supervised learning paradigm with conditional generative adversarial
networks for sample-efficient classification [8.27719348049333]
本稿では,サンプル効率のよい協調学習パラダイム(SEC-CGAN)を提案する。
SEC-CGANは、分類器と共にトレーニングされ、トレーニングプロセス中に注釈付きデータにセマンティクスを条件付き、信頼性に配慮した合成例を補完する。
実験により、SEC-CGAN は外部分類器 GAN とベースライン ResNet-18 の分類器より優れていることが示された。
論文 参考訳(メタデータ) (2022-12-27T19:24:31Z) - Learning to Decompose Visual Features with Latent Textual Prompts [140.2117637223449]
視覚言語モデルを改善するために,Decomposed Feature Prompting (DeFo)を提案する。
我々の実証研究は、視覚言語モデルを改善する上でDeFoが重要であることを示している。
論文 参考訳(メタデータ) (2022-10-09T15:40:13Z) - Adaptive Ranking-based Sample Selection for Weakly Supervised
Class-imbalanced Text Classification [4.151073288078749]
本稿では、適応ランク付けに基づくサンプル選択(ARS2)を提案し、弱い監視(WS)パラダイムにおけるデータ不均衡問題を緩和する。
ARS2は、現在のモデルの出力に基づいて確率的マージンスコアを算出し、各データポイントの清潔度を測定し、ランク付けする。
実験の結果、ARS2は最先端の非バランスな学習方法やWSメソッドよりも優れており、F1スコアの2%-57.8%の改善につながった。
論文 参考訳(メタデータ) (2022-10-06T17:49:22Z) - Expression Classification using Concatenation of Deep Neural Network for
the 3rd ABAW3 Competition [4.772214437523759]
第3回Affective Behavior Analysis In-The-Wildコンペティションでは、ビデオからの人間の顔の基本的な表現を含む8つのクラスを含む表現分類を行う。
本稿では,表現分類タスクに対してRegNet,Attention Module,Transformerの組合せ表現を行う。
論文 参考訳(メタデータ) (2022-03-24T07:36:21Z) - The Overlooked Classifier in Human-Object Interaction Recognition [82.20671129356037]
クラス間の意味的相関を分類ヘッドにエンコードし,重みをHOIの言語埋め込みで初期化する。
我々は,LSE-Sign という新しい損失を,長い尾を持つデータセット上でのマルチラベル学習を強化するために提案する。
我々は,物体検出と人間のポーズを明確なマージンで求める最先端技術よりも優れた,検出不要なHOI分類を可能にする。
論文 参考訳(メタデータ) (2022-03-10T23:35:00Z) - Fine-Grained Adversarial Semi-supervised Learning [25.36956660025102]
FGVC(Fen-Grained Visual Categorization)の性能向上のために、SSL(Semi-Supervised Learning)を活用してトレーニングデータの量を増やす。
6つの最先端の細粒度データセットに対して実験を行うことにより、組み合わせた使用の有効性を実証する。
論文 参考訳(メタデータ) (2021-10-12T09:24:22Z) - Weakly Supervised Contrastive Learning [68.47096022526927]
この問題に対処するために,弱教師付きコントラスト学習フレームワーク(WCL)を導入する。
WCLはResNet50を使用して65%と72%のImageNet Top-1の精度を実現している。
論文 参考訳(メタデータ) (2021-10-10T12:03:52Z) - Neighborhood Contrastive Learning for Novel Class Discovery [79.14767688903028]
我々は,クラスタリング性能に重要な識別表現を学習するために,Neighborhood Contrastive Learningという新しいフレームワークを構築した。
これらの2つの成分がクラスタリング性能に大きく寄与し、我々のモデルが最先端の手法よりも大きなマージンで優れていることを実験的に実証した。
論文 参考訳(メタデータ) (2021-06-20T17:34:55Z) - Deep F-measure Maximization for End-to-End Speech Understanding [52.36496114728355]
本稿では,F測度に対する微分可能な近似法を提案し,標準バックプロパゲーションを用いてネットワークをトレーニングする。
我々は、アダルト、コミュニティ、犯罪の2つの標準フェアネスデータセットの実験を行い、ATISデータセットの音声・インテリジェンス検出と音声・COCOデータセットの音声・イメージ概念分類を行った。
これらの4つのタスクのすべてにおいて、F測定は、クロスエントロピー損失関数で訓練されたモデルと比較して、最大8%の絶対的な絶対的な改善を含む、マイクロF1スコアの改善をもたらす。
論文 参考訳(メタデータ) (2020-08-08T03:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。