論文の概要: Multitask Emotion Recognition with Incomplete Labels
- arxiv url: http://arxiv.org/abs/2002.03557v2
- Date: Tue, 10 Mar 2020 11:52:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 09:48:55.112499
- Title: Multitask Emotion Recognition with Incomplete Labels
- Title(参考訳): 不完全ラベルを用いたマルチタスク感情認識
- Authors: Didan Deng, Zhaokang Chen, Bertram E. Shi
- Abstract要約: 我々は,顔行動単位の検出,表現分類,原子価-覚醒推定という3つのタスクを実行するために,統一モデルを訓練する。
既存のデータセットの多くは、3つのタスクのラベルを含まない。
学生のモデルのほとんどは、教師のモデルよりも3つのタスクで優れています。
- 参考スコア(独自算出の注目度): 7.811459544911892
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We train a unified model to perform three tasks: facial action unit
detection, expression classification, and valence-arousal estimation. We
address two main challenges of learning the three tasks. First, most existing
datasets are highly imbalanced. Second, most existing datasets do not contain
labels for all three tasks. To tackle the first challenge, we apply data
balancing techniques to experimental datasets. To tackle the second challenge,
we propose an algorithm for the multitask model to learn from missing
(incomplete) labels. This algorithm has two steps. We first train a teacher
model to perform all three tasks, where each instance is trained by the ground
truth label of its corresponding task. Secondly, we refer to the outputs of the
teacher model as the soft labels. We use the soft labels and the ground truth
to train the student model. We find that most of the student models outperform
their teacher model on all the three tasks. Finally, we use model ensembling to
boost performance further on the three tasks.
- Abstract(参考訳): 顔行動単位の検出,表情分類,ヴァレンス覚醒推定の3つのタスクを統一したモデルを訓練した。
3つのタスクを学ぶ上での2つの大きな課題に対処します。
まず、既存のデータセットの多くは高度に不均衡です。
第二に、既存のデータセットのほとんどは、3つのタスクのラベルを含まない。
最初の課題に取り組むために、実験データセットにデータバランシング技術を適用する。
第2の課題に取り組むために,マルチタスクモデルにおけるラベルの欠落から学習するアルゴリズムを提案する。
このアルゴリズムには2つのステップがある。
まず3つのタスクすべてを実行するために教師モデルをトレーニングし、各インスタンスは対応するタスクの基底真理ラベルでトレーニングされます。
次に,教師モデルの出力をソフトラベルと呼ぶ。
学生モデルをトレーニングするために、ソフトラベルと基礎的な真実を使用します。
学生のモデルのほとんどは、教師のモデルよりも3つのタスクで優れています。
最後に、3つのタスクのパフォーマンスをさらに向上するためにモデルアンサンブルを使用します。
関連論文リスト
- Relational Multi-Task Learning: Modeling Relations between Data and
Tasks [84.41620970886483]
マルチタスク学習における主要な前提は、推論時にモデルが与えられたデータポイントにのみアクセスできるが、他のタスクからのデータポイントのラベルにはアクセスできないことである。
ここでは、補助的なタスクからデータポイントラベルを活用してより正確な予測を行う、新しいリレーショナルマルチタスク学習環境を提案する。
私たちはMetaLinkを開発し、そこではデータポイントとタスクを接続するナレッジグラフを構築します。
論文 参考訳(メタデータ) (2023-03-14T07:15:41Z) - Task Compass: Scaling Multi-task Pre-training with Task Prefix [122.49242976184617]
既存の研究では、大規模教師付きタスクによるマルチタスク学習がタスク間の負の効果に悩まされていることが示されている。
タスク間の関係を探索するために,タスクプレフィックスガイド付きマルチタスク事前学習フレームワークを提案する。
我々のモデルは、幅広いタスクの強力な基盤バックボーンとして機能するだけでなく、タスク関係を分析するための探索ツールとしても実現可能である。
論文 参考訳(メタデータ) (2022-10-12T15:02:04Z) - Multitask Emotion Recognition Model with Knowledge Distillation and Task
Discriminator [0.0]
ABAWデータセットを用いて感情を予測するマルチタスクモデルを設計した。
不完全なラベルから知識蒸留技術を適用してモデルを訓練した。
その結果、マルチタスク学習タスク検証データセットで2.40を達成しました。
論文 参考訳(メタデータ) (2022-03-24T13:50:48Z) - X-Learner: Learning Cross Sources and Tasks for Universal Visual
Representation [71.51719469058666]
本稿では,X-Learnerという表現学習フレームワークを提案する。
X-Learnerは、様々なソースによって管理される複数の視覚タスクの普遍的な特徴を学習する。
X-Learnerは、追加のアノテーションやモダリティ、計算コストを使わずに、様々なタスクで強力なパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-03-16T17:23:26Z) - Multi-Task Self-Training for Learning General Representations [97.01728635294879]
マルチタスク・セルフトレーニング(MuST)は、独立した専門教師モデルにおける知識を活用して、一人の一般学生モデルを訓練する。
MuSTはラベルなしまたは部分的にラベル付けされたデータセットでスケーラブルで、大規模データセットのトレーニングにおいて、特別な教師付きモデルとセルフ教師付きモデルの両方を上回っている。
論文 参考訳(メタデータ) (2021-08-25T17:20:50Z) - Multitask Multi-database Emotion Recognition [1.52292571922932]
本稿では,第2回ABAW(Affective Behavior Analysis in-the-wild)2021コンペティションについて紹介する。
マルチデータベース上で2つのタスクを実行するために,統合ディープラーニングモデルをトレーニングする。
実験の結果,ネットワークはAffWild2データベースの検証セットにおいて有望な結果を得た。
論文 参考訳(メタデータ) (2021-07-08T21:57:58Z) - Feature Pyramid Network for Multi-task Affective Analysis [15.645791213312734]
マルチタスク影響分析のための特徴ピラミッドネットワークという新しいモデルを提案する。
階層的特徴を抽出して3つのラベルを予測し,事前学習されたシングルタスクモデルから学習するための教師学生訓練戦略を適用した。
論文 参考訳(メタデータ) (2021-07-08T08:10:04Z) - Boosting a Model Zoo for Multi-Task and Continual Learning [15.110807414130923]
モデル動物園」はモデルのアンサンブルを構築するアルゴリズムであり、それぞれが非常に小さく、小さなタスクセットで訓練されている。
モデルZooは,マルチタスクおよび連続学習における最先端手法と比較して,予測精度が大きく向上する。
論文 参考訳(メタデータ) (2021-06-06T04:25:09Z) - Dealing with Missing Modalities in the Visual Question Answer-Difference
Prediction Task through Knowledge Distillation [75.1682163844354]
我々は,視覚的質問応答拡散予測タスクから生じる欠落モダリティの問題に対処する。
本稿では,イメージ/質問/回答トリプレットを入力として,ベースラインを上回る「大きな」教師モデルを紹介する。
論文 参考訳(メタデータ) (2021-04-13T06:41:11Z) - KGPT: Knowledge-Grounded Pre-Training for Data-to-Text Generation [100.79870384880333]
知識に富んだテキストを生成するための知識基盤事前学習(KGPT)を提案する。
我々は、その効果を評価するために、3つの設定、すなわち、完全教師付き、ゼロショット、少数ショットを採用します。
ゼロショット設定では、WebNLG上で30 ROUGE-L以上を達成するが、他の全てのベースラインは失敗する。
論文 参考訳(メタデータ) (2020-10-05T19:59:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。