論文の概要: Multitask Emotion Recognition Model with Knowledge Distillation and Task
Discriminator
- arxiv url: http://arxiv.org/abs/2203.13072v1
- Date: Thu, 24 Mar 2022 13:50:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-25 17:00:14.947891
- Title: Multitask Emotion Recognition Model with Knowledge Distillation and Task
Discriminator
- Title(参考訳): 知識蒸留とタスク識別器を用いたマルチタスク感情認識モデル
- Authors: Euiseok Jeong, Geesung Oh and Sejoon Lim
- Abstract要約: ABAWデータセットを用いて感情を予測するマルチタスクモデルを設計した。
不完全なラベルから知識蒸留技術を適用してモデルを訓練した。
その結果、マルチタスク学習タスク検証データセットで2.40を達成しました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Due to the collection of big data and the development of deep learning,
research to predict human emotions in the wild is being actively conducted. We
designed a multi-task model using ABAW dataset to predict valence-arousal,
expression, and action unit through audio data and face images at in real
world. We trained model from the incomplete label by applying the knowledge
distillation technique. The teacher model was trained as a supervised learning
method, and the student model was trained by using the output of the teacher
model as a soft label. As a result we achieved 2.40 in Multi Task Learning task
validation dataset.
- Abstract(参考訳): ビッグデータの収集と深層学習の発展により、野生における人間の感情を予測する研究が活発に行われている。
ABAWデータセットを用いたマルチタスクモデルを設計し,実世界の音声データと顔画像を用いて,原子価,表現,行動単位を予測する。
知識蒸留法を適用して不完全ラベルからモデルを訓練した。
教師モデルは教師付き学習方法として訓練され、生徒モデルは教師モデルの出力をソフトラベルとして利用して訓練された。
その結果、マルチタスク学習タスク検証データセットで2.40を達成した。
関連論文リスト
- Interactive DualChecker for Mitigating Hallucinations in Distilling Large Language Models [7.632217365130212]
大規模言語モデル(LLM)は、さまざまな機械学習(ML)タスクにまたがる例外的な機能を示している。
これらのモデルは、特に不完全な知識を持つ領域において幻覚を生み出すことができる。
幻覚を緩和し,教師モデルと学生モデルの両方のパフォーマンスを向上させるために設計された,革新的なフレームワークであるDualCheckerを紹介する。
論文 参考訳(メタデータ) (2024-08-22T12:04:04Z) - Diffusion Model is an Effective Planner and Data Synthesizer for
Multi-Task Reinforcement Learning [101.66860222415512]
Multi-Task Diffusion Model (textscMTDiff) は、トランスフォーマーのバックボーンを組み込んだ拡散に基づく手法であり、生成計画とデータ合成のための素早い学習を行う。
生成計画において、textscMTDiffはMeta-World上の50のタスクとMaze2D上の8のマップで最先端のアルゴリズムより優れています。
論文 参考訳(メタデータ) (2023-05-29T05:20:38Z) - Ensemble knowledge distillation of self-supervised speech models [84.69577440755457]
蒸留自己監督モデルは近年、競争性能と効率性を示している。
We performed Ensemble Knowledge Distillation (EKD) on various self-supervised speech model, HuBERT, RobustHuBERT, WavLM。
提案手法は,4つの下流音声処理タスクにおける蒸留モデルの性能を向上させる。
論文 参考訳(メタデータ) (2023-02-24T17:15:39Z) - Prototype-guided Cross-task Knowledge Distillation for Large-scale
Models [103.04711721343278]
クロスタスクの知識蒸留は、競争力のあるパフォーマンスを得るために小さな学生モデルを訓練するのに役立ちます。
本稿では,大規模教師ネットワークの内在的ローカルレベルのオブジェクト知識を様々なタスクシナリオに転送するための,プロトタイプ誘導型クロスタスク知識蒸留(ProC-KD)アプローチを提案する。
論文 参考訳(メタデータ) (2022-12-26T15:00:42Z) - Multi-Task Self-Training for Learning General Representations [97.01728635294879]
マルチタスク・セルフトレーニング(MuST)は、独立した専門教師モデルにおける知識を活用して、一人の一般学生モデルを訓練する。
MuSTはラベルなしまたは部分的にラベル付けされたデータセットでスケーラブルで、大規模データセットのトレーニングにおいて、特別な教師付きモデルとセルフ教師付きモデルの両方を上回っている。
論文 参考訳(メタデータ) (2021-08-25T17:20:50Z) - A Multi-task Mean Teacher for Semi-supervised Facial Affective Behavior
Analysis [15.95010869939508]
TSAVのような既存の感情行動分析手法は、不完全なラベル付きデータセットの課題に悩まされている。
本稿では, 半教師付き感情行動分析のためのマルチタスク平均教師モデルを提案する。
評価データセットの実験結果から,本手法はTSAVモデルよりも優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2021-07-09T05:48:22Z) - Multitask Multi-database Emotion Recognition [1.52292571922932]
本稿では,第2回ABAW(Affective Behavior Analysis in-the-wild)2021コンペティションについて紹介する。
マルチデータベース上で2つのタスクを実行するために,統合ディープラーニングモデルをトレーニングする。
実験の結果,ネットワークはAffWild2データベースの検証セットにおいて有望な結果を得た。
論文 参考訳(メタデータ) (2021-07-08T21:57:58Z) - Reinforced Multi-Teacher Selection for Knowledge Distillation [54.72886763796232]
知識蒸留はモデル圧縮の一般的な方法です。
現在の方法は、蒸留全体の教師モデルに固定重量を割り当てます。
既存のメソッドのほとんどは、すべての教師モデルに等しい重みを割り当てます。
本論文では,学習例の複雑性や生徒モデル能力の違いから,教師モデルとの違いを学習することで,生徒モデルの蒸留性能の向上が期待できることを考察する。
論文 参考訳(メタデータ) (2020-12-11T08:56:39Z) - Label-Efficient Multi-Task Segmentation using Contrastive Learning [0.966840768820136]
比較学習に基づくサブタスクを用いたマルチタスクセグメンテーションモデルを提案し、その性能を他のマルチタスクモデルと比較する。
提案手法は,アノテートデータの量に制限がある場合に,最先端の完全教師付きモデルを含む他のマルチタスク手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-09-23T14:12:17Z) - Learning to Reweight with Deep Interactions [104.68509759134878]
本稿では,教師モデルに内部状態を提供する改良型データ再重み付けアルゴリズムを提案する。
クリーン/ノイズラベルとニューラルマシン翻訳を用いた画像分類実験は、我々のアルゴリズムが従来の手法よりも大幅に改善されていることを実証的に実証した。
論文 参考訳(メタデータ) (2020-07-09T09:06:31Z) - Multitask Emotion Recognition with Incomplete Labels [7.811459544911892]
我々は,顔行動単位の検出,表現分類,原子価-覚醒推定という3つのタスクを実行するために,統一モデルを訓練する。
既存のデータセットの多くは、3つのタスクのラベルを含まない。
学生のモデルのほとんどは、教師のモデルよりも3つのタスクで優れています。
論文 参考訳(メタデータ) (2020-02-10T05:32:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。