論文の概要: Multitask Multi-database Emotion Recognition
- arxiv url: http://arxiv.org/abs/2107.04127v2
- Date: Mon, 12 Jul 2021 15:36:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-13 11:41:42.040598
- Title: Multitask Multi-database Emotion Recognition
- Title(参考訳): マルチタスクマルチデータベース感情認識
- Authors: Manh Tu Vu, Marie Beurton-Aimar
- Abstract要約: 本稿では,第2回ABAW(Affective Behavior Analysis in-the-wild)2021コンペティションについて紹介する。
マルチデータベース上で2つのタスクを実行するために,統合ディープラーニングモデルをトレーニングする。
実験の結果,ネットワークはAffWild2データベースの検証セットにおいて有望な結果を得た。
- 参考スコア(独自算出の注目度): 1.52292571922932
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this work, we introduce our submission to the 2nd Affective Behavior
Analysis in-the-wild (ABAW) 2021 competition. We train a unified deep learning
model on multi-databases to perform two tasks: seven basic facial expressions
prediction and valence-arousal estimation. Since these databases do not
contains labels for all the two tasks, we have applied the distillation
knowledge technique to train two networks: one teacher and one student model.
The student model will be trained using both ground truth labels and soft
labels derived from the pretrained teacher model. During the training, we add
one more task, which is the combination of the two mentioned tasks, for better
exploiting inter-task correlations. We also exploit the sharing videos between
the two tasks of the AffWild2 database that is used in the competition, to
further improve the performance of the network. Experiment results shows that
the network have achieved promising results on the validation set of the
AffWild2 database. Code and pretrained model are publicly available at
https://github.com/glmanhtu/multitask-abaw-2021
- Abstract(参考訳): 本稿では,第2回ABAW(Affective Behavior Analysis in-the-Wild)2021コンペティションについて紹介する。
我々は,複数のデータベース上で統合されたディープラーニングモデルを訓練し,7つの基本表情予測とvalence-arousal推定の2つのタスクを実行する。
これらのデータベースは2つのタスクのラベルを含まないため、蒸留知識技術を用いて2つのネットワーク(教師1名と学生1名)を訓練した。
学生モデルは、事前訓練された教師モデルから派生した基底真理ラベルとソフトラベルの両方を使用して訓練される。
トレーニング中にもう1つのタスクを追加します。これは2つのタスクの組み合わせで、タスク間の相関をよりうまく活用します。
また、競争で使用されるAffWild2データベースの2つのタスク間のビデオ共有を利用して、ネットワークの性能をさらに向上する。
実験の結果,ネットワークはAffWild2データベースの検証セットにおいて有望な結果を得た。
コードと事前トレーニングされたモデルはhttps://github.com/glmanhtu/multitask-abaw-2021で公開されている。
関連論文リスト
- Self-Training and Multi-Task Learning for Limited Data: Evaluation Study
on Object Detection [4.9914667450658925]
実験結果から,マルチタスク学生の学習に不明瞭なデータを持つ弱教師を用いた場合のパフォーマンス向上が示唆された。
限られた設定にもかかわらず、実験結果はマルチタスクの知識蒸留と自己学習の可能性を示していると信じている。
論文 参考訳(メタデータ) (2023-09-12T14:50:14Z) - Provable Multi-Task Representation Learning by Two-Layer ReLU Neural Networks [69.38572074372392]
本稿では,複数タスクにおける非線形モデルを用いたトレーニング中に特徴学習が発生することを示す最初の結果を示す。
私たちのキーとなる洞察は、マルチタスク事前トレーニングは、通常タスク間で同じラベルを持つポイントを整列する表現を好む擬似コントラスト的損失を誘導するということです。
論文 参考訳(メタデータ) (2023-07-13T16:39:08Z) - Relational Multi-Task Learning: Modeling Relations between Data and
Tasks [84.41620970886483]
マルチタスク学習における主要な前提は、推論時にモデルが与えられたデータポイントにのみアクセスできるが、他のタスクからのデータポイントのラベルにはアクセスできないことである。
ここでは、補助的なタスクからデータポイントラベルを活用してより正確な予測を行う、新しいリレーショナルマルチタスク学習環境を提案する。
私たちはMetaLinkを開発し、そこではデータポイントとタスクを接続するナレッジグラフを構築します。
論文 参考訳(メタデータ) (2023-03-14T07:15:41Z) - Task Compass: Scaling Multi-task Pre-training with Task Prefix [122.49242976184617]
既存の研究では、大規模教師付きタスクによるマルチタスク学習がタスク間の負の効果に悩まされていることが示されている。
タスク間の関係を探索するために,タスクプレフィックスガイド付きマルチタスク事前学習フレームワークを提案する。
我々のモデルは、幅広いタスクの強力な基盤バックボーンとして機能するだけでなく、タスク関係を分析するための探索ツールとしても実現可能である。
論文 参考訳(メタデータ) (2022-10-12T15:02:04Z) - Self-Supervised Graph Neural Network for Multi-Source Domain Adaptation [51.21190751266442]
ドメイン適応(DA)は、テストデータがトレーニングデータの同じ分布に完全に従わない場合に、シナリオに取り組む。
大規模未ラベルサンプルから学習することで、自己教師型学習がディープラーニングの新しいトレンドとなっている。
我々は,より効果的なタスク間情報交換と知識共有を実現するために,新しい textbfSelf-textbf Supervised textbfGraph Neural Network (SSG) を提案する。
論文 参考訳(メタデータ) (2022-04-08T03:37:56Z) - Multitask Emotion Recognition Model with Knowledge Distillation and Task
Discriminator [0.0]
ABAWデータセットを用いて感情を予測するマルチタスクモデルを設計した。
不完全なラベルから知識蒸留技術を適用してモデルを訓練した。
その結果、マルチタスク学習タスク検証データセットで2.40を達成しました。
論文 参考訳(メタデータ) (2022-03-24T13:50:48Z) - The Effect of Diversity in Meta-Learning [79.56118674435844]
少ないショット学習は、少数の例から見れば、新しいタスクに対処できる表現を学習することを目的としている。
近年の研究では,タスク分布がモデルの性能に重要な役割を担っていることが示されている。
タスクの多様性がメタ学習アルゴリズムに与える影響を評価するために,多種多様なモデルとデータセットのタスク分布について検討する。
論文 参考訳(メタデータ) (2022-01-27T19:39:07Z) - Emotion Recognition with Incomplete Labels Using Modified Multi-task
Learning Technique [8.012391782839384]
AffWild2データセットから7つの基本的な感情と12のアクションユニットの関連性を利用する手法を提案する。
2つの相関したタスクの知識を組み合わせることで、両方のパフォーマンスは1種類のラベルしか使用していないモデルと比較して大きなマージンで改善される。
論文 参考訳(メタデータ) (2021-07-09T03:43:53Z) - Feature Pyramid Network for Multi-task Affective Analysis [15.645791213312734]
マルチタスク影響分析のための特徴ピラミッドネットワークという新しいモデルを提案する。
階層的特徴を抽出して3つのラベルを予測し,事前学習されたシングルタスクモデルから学習するための教師学生訓練戦略を適用した。
論文 参考訳(メタデータ) (2021-07-08T08:10:04Z) - Low Resource Multi-Task Sequence Tagging -- Revisiting Dynamic
Conditional Random Fields [67.51177964010967]
異なるタスクに対するラベルシーケンス間の依存関係を利用する低リソースマルチタスクシーケンスタグの異なるモデルを比較した。
タスク予測間の相互依存性の明示的モデリングは、通常のマルチタスクモデルと同様にシングルタスクよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-01T07:11:34Z) - Multitask Emotion Recognition with Incomplete Labels [7.811459544911892]
我々は,顔行動単位の検出,表現分類,原子価-覚醒推定という3つのタスクを実行するために,統一モデルを訓練する。
既存のデータセットの多くは、3つのタスクのラベルを含まない。
学生のモデルのほとんどは、教師のモデルよりも3つのタスクで優れています。
論文 参考訳(メタデータ) (2020-02-10T05:32:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。