論文の概要: Facial Affect Analysis: Learning from Synthetic Data & Multi-Task
Learning Challenges
- arxiv url: http://arxiv.org/abs/2207.09748v1
- Date: Wed, 20 Jul 2022 08:46:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-21 12:57:30.732152
- Title: Facial Affect Analysis: Learning from Synthetic Data & Multi-Task
Learning Challenges
- Title(参考訳): 顔の感情分析 : 合成データとマルチタスク学習の課題から学ぶ
- Authors: Siyang Li, Yifan Xu, Huanyu Wu, Dongrui Wu, Yingjie Yin, Jiajiong Cao,
Jingting Ding
- Abstract要約: 第4回ABAW(Affective Behavior Analysis In-The-Wild)コンペティションにおける2つの課題に対処する新しいフレームワークを提案する。
MTLチャレンジでは,特徴ベクトルのアンサンブル戦略を改良したSMM-EmotionNetを採用する。
LSD問題に対して, 単一ラベルの問題, 不均衡分布, 微調整制限, モデルアーキテクチャの選択に対処する各手法を提案する。
- 参考スコア(独自算出の注目度): 23.649517834303502
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Facial affect analysis remains a challenging task with its setting
transitioned from lab-controlled to in-the-wild situations. In this paper, we
present novel frameworks to handle the two challenges in the 4th Affective
Behavior Analysis In-The-Wild (ABAW) competition: i) Multi-Task-Learning (MTL)
Challenge and ii) Learning from Synthetic Data (LSD) Challenge. For MTL
challenge, we adopt the SMM-EmotionNet with a better ensemble strategy of
feature vectors. For LSD challenge, we propose respective methods to combat the
problems of single labels, imbalanced distribution, fine-tuning limitations,
and choice of model architectures. Experimental results on the official
validation sets from the competition demonstrated that our proposed approaches
outperformed baselines by a large margin. The code is available at
https://github.com/sylyoung/ABAW4-HUST-ANT.
- Abstract(参考訳): 顔の感情分析は、実験室で制御された状況から野生の状況に移行する上で、依然として困難な課題である。
本稿では,第4回ABAW(Affective Behavior Analysis In-The-Wild)コンペティションにおける2つの課題に対処する新しい枠組みを提案する。
一 マルチタスク学習(MTL)の課題及び課題
二 合成データ(LSD)チャレンジから学ぶこと。
MTLチャレンジでは,特徴ベクトルのアンサンブル戦略を改良したSMM-EmotionNetを採用する。
LSD問題に対して,単一ラベルの問題,不均衡分布,微調整制限,モデルアーキテクチャの選択に対処する各手法を提案する。
実験結果から,提案手法がベースラインよりも高い性能を示した。
コードはhttps://github.com/sylyoung/ABAW4-HUST-ANTで公開されている。
関連論文リスト
- TAT-LLM: A Specialized Language Model for Discrete Reasoning over
Tabular and Textual Data [77.66158066013924]
我々は,言語モデル(LLM)の驚くべきパワーを活用して課題を解決することを検討する。
LLaMA2を微調整し,既存のエキスパートアノテートデータセットから自動生成したトレーニングデータを用いてTAT-LLM言語モデルを開発する。
論文 参考訳(メタデータ) (2024-01-24T04:28:50Z) - On Task Performance and Model Calibration with Supervised and
Self-Ensembled In-Context Learning [71.44986275228747]
In-context Learning (ICL) は、近年の大規模言語モデル(LLM)の進歩により、効率的なアプローチとなっている。
しかし、両方のパラダイムは、過信の批判的な問題(すなわち、誤校正)に苦しむ傾向にある。
論文 参考訳(メタデータ) (2023-12-21T11:55:10Z) - Competition-Level Problems are Effective LLM Evaluators [124.7648712310141]
本稿では,Codeforcesにおける最近のプログラミング問題の解決において,大規模言語モデル(LLM)の推論能力を評価することを目的とする。
まず,問題の発生時間,難易度,遭遇したエラーの種類など,様々な側面を考慮して,GPT-4の望ましくないゼロショット性能を総合的に評価する。
驚くべきことに、GPT-4のTheThoughtivedのパフォーマンスは、2021年9月以降、あらゆる困難と種類の問題に対して一貫して問題が減少するような崖を経験している。
論文 参考訳(メタデータ) (2023-12-04T18:58:57Z) - When Multi-Task Learning Meets Partial Supervision: A Computer Vision
Review [6.789370732159176]
マルチタスク学習(MTL)は,相互関係を利用して複数のタスクを同時に学習することを目的としている。
このレビューは、これらの課題に対処するために、異なる部分的な監視設定の下でMTLをどのように活用するかに焦点を当てる。
論文 参考訳(メタデータ) (2023-07-25T20:08:41Z) - STG-MTL: Scalable Task Grouping for Multi-Task Learning Using Data Map [5.218882272051636]
MTL(Multi-Task Learning)は、従来のSTL(Single-Task Learning)よりも性能が向上し、普及した強力な技術である。
しかし、MTLは指数的なタスクグルーピング数が多いため、しばしば困難である。
本稿では,これらの課題に対処し,課題分類のためのスケーラブルでモジュール化されたソリューションを提供する新しいデータ駆動手法を提案する。
論文 参考訳(メタデータ) (2023-07-07T03:54:26Z) - Facial Affective Behavior Analysis Method for 5th ABAW Competition [20.54725479855494]
第5回ABAWコンペティションには、Aff-Wild2データベースからの3つの課題が含まれている。
結果を改善するために,3つの異なるモデルを構築した。
3つの課題の実験では、提供されたトレーニングデータに基づいてモデルをトレーニングし、検証データ上でモデルを検証する。
論文 参考訳(メタデータ) (2023-03-16T08:21:10Z) - Two-Aspect Information Fusion Model For ABAW4 Multi-task Challenge [41.32053075381269]
ABAWのタスクは、ビデオからフレームレベルの感情記述子を予測することである。
異なる種類の情報の完全統合を実現するために,新しいエンド・ツー・エンドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-07-23T01:48:51Z) - Hybrid CNN-Transformer Model For Facial Affect Recognition In the ABAW4
Challenge [6.786147929596443]
本稿では,Multi-Task-Learning(MTL)とLearning from Synthetic Data(LSD)タスクのためのハイブリッドCNN-Transformerモデルを提案する。
検証データセットの実験結果から,本手法はベースラインモデルよりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2022-07-20T21:38:47Z) - Dynamic Contrastive Distillation for Image-Text Retrieval [90.05345397400144]
画像テキスト検索モデルを圧縮するための新しいプラグイン動的コントラスト蒸留(DCD)フレームワークを提案する。
提案したDCD戦略を2つの最先端の視覚言語事前訓練モデル、すなわち ViLT と METER に適用することに成功している。
MS-COCOとFlickr30Kベンチマークの実験では、DCDフレームワークの有効性と効率が示されている。
論文 参考訳(メタデータ) (2022-07-04T14:08:59Z) - Learning Mixtures of Linear Dynamical Systems [94.49754087817931]
そこで我々は,2段階のメタアルゴリズムを開発し,各基底構造LPSモデルを誤り$tildeO(sqrtd/T)$.sqrtd/T)まで効率的に復元する。
提案手法の有効性を検証し,数値実験による理論的研究を検証する。
論文 参考訳(メタデータ) (2022-01-26T22:26:01Z) - Winning solutions and post-challenge analyses of the ChaLearn AutoDL
challenge 2019 [112.36155380260655]
本稿では,ChaLearnのAutoDLチャレンジシリーズの結果と今後の課題について述べる。
その結果,一般的なニューラルネットワーク探索(NAS)は実用的ではなかったものの,DL手法が支配的であったことが示唆された。
メタラーナー"、"データインジェクタ"、"モデルセレクタ"、"モデル/ラーナー"、"評価器"を特徴とする、ハイレベルなモジュール化組織が登場した。
論文 参考訳(メタデータ) (2022-01-11T06:21:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。