論文の概要: HSE-NN Team at the 4th ABAW Competition: Multi-task Emotion Recognition
and Learning from Synthetic Images
- arxiv url: http://arxiv.org/abs/2207.09508v2
- Date: Thu, 21 Jul 2022 14:20:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-22 10:28:26.907862
- Title: HSE-NN Team at the 4th ABAW Competition: Multi-task Emotion Recognition
and Learning from Synthetic Images
- Title(参考訳): 第4回ABAWコンペティションにおけるHSE-NNチーム: マルチタスク感情認識と合成画像からの学習
- Authors: Andrey V. Savchenko
- Abstract要約: 第4回ABAW(Affective Behavior Analysis in the-wild)コンペティションにおけるHSE-NNチームの結果を報告する。
表情の同時認識のために,新しいマルチタスク効率ネットモデルを訓練する。
その結果、MT-EmotiEffNetは単純なフィードフォワードニューラルネットワークに入力される視覚的特徴を抽出する。
- 参考スコア(独自算出の注目度): 7.056222499095849
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present the results of the HSE-NN team in the 4th
competition on Affective Behavior Analysis in-the-wild (ABAW). The novel
multi-task EfficientNet model is trained for simultaneous recognition of facial
expressions and prediction of valence and arousal on static photos. The
resulting MT-EmotiEffNet extracts visual features that are fed into simple
feed-forward neural networks in the multi-task learning challenge. We obtain
performance measure 1.3 on the validation set, which is significantly greater
when compared to either performance of baseline (0.3) or existing models that
are trained only on the s-Aff-Wild2 database. In the learning from synthetic
data challenge, the quality of the original synthetic training set is increased
by using the super-resolution techniques, such as Real-ESRGAN. Next, the
MT-EmotiEffNet is fine-tuned on the new training set. The final prediction is a
simple blending ensemble of pre-trained and fine-tuned MT-EmotiEffNets. Our
average validation F1 score is 18% greater than the baseline convolutional
neural network.
- Abstract(参考訳): 本稿では,第4回ABAW(Affective Behavior Analysis in the-wild)コンペティションにおけるHSE-NNチームの結果を紹介する。
新たなマルチタスク・エフィシエントネットモデルでは,表情の同時認識と,静止画像上での価値と覚醒の予測を訓練する。
MT-EmotiEffNetは、マルチタスク学習課題において、単純なフィードフォワードニューラルネットワークに入力される視覚的特徴を抽出する。
s-aff-wild2データベース上でのみトレーニングされるベースライン(0.3)や既存モデルと比較した場合,検証セットの性能測定値1.3を得た。
合成データチャレンジからの学習において、Real-ESRGANのような超解像技術を用いて、元の合成トレーニングセットの品質を高める。
次に、MT-EmotiEffNetは、新しいトレーニングセットに基づいて微調整される。
最後の予測は、事前訓練されたMT-EmotiEffNetsの単純な混合アンサンブルである。
我々の平均検証F1スコアは、ベースライン畳み込みニューラルネットワークよりも18%大きい。
関連論文リスト
- Diffusion-based Neural Network Weights Generation [85.6725307453325]
データセット条件付き事前学習重み抽出による効率よく適応的な伝達学習手法を提案する。
具体的には、ニューラルネットワークの重みを再構築できる変分オートエンコーダを備えた潜時拡散モデルを用いる。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Video and Synthetic MRI Pre-training of 3D Vision Architectures for
Neuroimage Analysis [3.208731414009847]
トランスファーラーニングは、特定のタスクに適応するために、大規模なデータコーパスでディープラーニングモデルを事前訓練することを含む。
視覚変換器 (ViTs) と畳み込みニューラルネットワーク (CNNs) のベンチマークを行った。
得られた事前訓練されたモデルは、ターゲットタスクのトレーニングデータが制限されている場合でも、さまざまな下流タスクに適応することができる。
論文 参考訳(メタデータ) (2023-09-09T00:33:23Z) - Training Feedforward Neural Networks with Bayesian Hyper-Heuristics [0.0]
本研究は,フィードフォワードネットワーク(FFNN)のトレーニングに使用される,新規な人口ベースベイズハイパーヒューリスティック(BHH)を紹介する。
BHHの性能は、検索の振る舞いが異なる10の一般的な低レベルニューラルネットワークと比較される。
BHHはFFNNをうまく訓練でき、訓練プロセスの様々な段階でFFNNを訓練する最良の方法を見つけるための自動化された方法を提供する。
論文 参考訳(メタデータ) (2023-03-29T11:40:28Z) - On the Soft-Subnetwork for Few-shot Class Incremental Learning [67.0373924836107]
本稿では,emphSoft-SubNetworks (SoftNet) と呼ばれる数発のクラスインクリメンタルラーニング(FSCIL)手法を提案する。
私たちの目的はセッションの連続を漸進的に学習することであり、各セッションは、以前に学習したセッションの知識を保持しながら、クラス毎にいくつかのトレーニングインスタンスのみを含む。
我々は、ベンチマークデータセットよりも最先端のベースラインのパフォーマンスを超越して、SoftNetが数発のインクリメンタル学習問題に効果的に取り組むことを示す、総合的な実証検証を提供する。
論文 参考訳(メタデータ) (2022-09-15T04:54:02Z) - Hybrid CNN-Transformer Model For Facial Affect Recognition In the ABAW4
Challenge [6.786147929596443]
本稿では,Multi-Task-Learning(MTL)とLearning from Synthetic Data(LSD)タスクのためのハイブリッドCNN-Transformerモデルを提案する。
検証データセットの実験結果から,本手法はベースラインモデルよりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2022-07-20T21:38:47Z) - Neural Capacitance: A New Perspective of Neural Network Selection via
Edge Dynamics [85.31710759801705]
現在の実践は、性能予測のためのモデルトレーニングにおいて高価な計算コストを必要とする。
本稿では,学習中のシナプス接続(エッジ)上の制御ダイナミクスを解析し,ニューラルネットワーク選択のための新しいフレームワークを提案する。
我々のフレームワークは、ニューラルネットワークトレーニング中のバックプロパゲーションがシナプス接続の動的進化と等価であるという事実に基づいて構築されている。
論文 参考訳(メタデータ) (2022-01-11T20:53:15Z) - Efficient Self-supervised Vision Transformers for Representation
Learning [86.57557009109411]
疎密な自己意識を持つマルチステージアーキテクチャは、モデリングの複雑さを著しく低減できることを示す。
そこで本研究では,モデルがよりきめ細かな領域依存を捕捉できるような,領域マッチングの事前学習タスクを提案する。
この2つの手法を組み合わせることで,ImageNet線形プローブ評価において,EsViTは81.3%のトップ1を達成した。
論文 参考訳(メタデータ) (2021-06-17T19:57:33Z) - Facial expression and attributes recognition based on multi-task
learning of lightweight neural networks [9.162936410696409]
顔の識別と顔の属性の分類のための軽量畳み込みニューラルネットワークのマルチタスクトレーニングを検討する。
顔の表情を予測するためには,これらのネットワークを微調整する必要がある。
MobileNet、EfficientNet、RexNetアーキテクチャに基づくいくつかのモデルが提示される。
論文 参考訳(メタデータ) (2021-03-31T14:21:04Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - Fast accuracy estimation of deep learning based multi-class musical
source separation [79.10962538141445]
本稿では,ニューラルネットワークのトレーニングやチューニングを行うことなく,任意のデータセットにおける楽器の分離性を評価する手法を提案する。
理想的な比マスクを持つオラクルの原理に基づいて、我々の手法は最先端のディープラーニング手法の分離性能を推定するための優れたプロキシである。
論文 参考訳(メタデータ) (2020-10-19T13:05:08Z) - Facial Affect Recognition in the Wild Using Multi-Task Learning
Convolutional Network [0.0]
本稿では,FG 2020における影響行動分析にニューラルネットワークを用いた手法を提案する。
マルチタスク学習を利用することで、このネットワークは3つの定量的感情モデルの推定と認識を行うことができる。
論文 参考訳(メタデータ) (2020-02-03T09:02:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。