論文の概要: HSEmotion Team at ABAW-10 Competition: Facial Expression Recognition, Valence-Arousal Estimation, Action Unit Detection and Fine-Grained Violence Classification
- arxiv url: http://arxiv.org/abs/2603.12693v1
- Date: Fri, 13 Mar 2026 06:13:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-16 17:38:11.9368
- Title: HSEmotion Team at ABAW-10 Competition: Facial Expression Recognition, Valence-Arousal Estimation, Action Unit Detection and Fine-Grained Violence Classification
- Title(参考訳): ABAW-10コンペティションHSEmotion Team: Facial Expression Recognition, Valence-Arousal Estimation, Action Unit Detection and Fine-Grained Violence Classification
- Authors: Andrey V. Savchenko, Kseniia Tsypliakova,
- Abstract要約: 本稿では,第10回ABAW(Affective Behavior Analysis in-the-Wild)コンペティションの結果について述べる。
本稿では,事前学習したEfficientNetに基づく感情認識モデルを用いて,顔の埋め込み抽出に基づく高速なアプローチを提案する。
きめ細かな暴力検出タスクでは,フレーム埋め込みのための事前訓練されたアーキテクチャと,ビデオ分類のためのアグリゲーションについて検討する。
- 参考スコア(独自算出の注目度): 37.55146299178429
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This article presents our results for the 10th Affective Behavior Analysis in-the-Wild (ABAW) competition. For frame-wise facial emotion understanding tasks (frame-wise facial expression recognition, valence-arousal estimation, action unit detection), we propose a fast approach based on facial embedding extraction with pre-trained EfficientNet-based emotion recognition models. If the latter model's confidence exceeds a threshold, its prediction is used. Otherwise, we feed embeddings into a simple multi-layered perceptron trained on the AffWild2 dataset. Estimated class-level scores are smoothed in a sliding window of fixed size to mitigate noise in frame-wise predictions. For the fine-grained violence detection task, we examine several pre-trained architectures for frame embeddings and their aggregation for video classification. Experimental results on four tasks from the ABAW challenge demonstrate that our approach significantly improves validation metrics over existing baselines.
- Abstract(参考訳): 本稿では,第10回ABAW(Affective Behavior Analysis in-the-Wild)コンペティションの結果について述べる。
フレームワイズ顔の感情理解タスク(フレームワイズ顔の表情認識,原子価覚醒度推定,行動単位検出)に対して,事前学習したEfficientNetに基づく感情認識モデルを用いた顔の埋め込み抽出に基づく高速アプローチを提案する。
後者のモデルの信頼度がしきい値を超えた場合、その予測が使用される。
そうでなければ、AffWild2データセットでトレーニングされた単純な多層パーセプトロンに埋め込みをフィードします。
推定クラスレベルスコアは、フレームワイド予測においてノイズを軽減するために、一定サイズのスライドウィンドウで滑らかにされる。
きめ細かな暴力検出タスクでは,フレーム埋め込みのための事前訓練されたアーキテクチャと,ビデオ分類のためのアグリゲーションについて検討する。
ABAWチャレンジの4つのタスクに関する実験結果から、我々のアプローチは既存のベースラインよりも検証基準を大幅に改善することを示した。
関連論文リスト
- EyeSeg: An Uncertainty-Aware Eye Segmentation Framework for AR/VR [58.33693755009173]
EyeSegは拡張現実(AR)と仮想現実(VR)のための不確実性を認識したアイセグメンテーションフレームワーク
我々は,従来のアプローチを超越したMIoU,E1,F1,ACCのセグメンテーション改善を実現していることを示す。
論文 参考訳(メタデータ) (2025-07-13T14:33:10Z) - HSEmotion Team at ABAW-8 Competition: Audiovisual Ambivalence/Hesitancy, Emotional Mimicry Intensity and Facial Expression Recognition [16.860963320038902]
本稿では,第8回ABAW(Affective Behavior Analysis in-the-Wild)コンペティションの結果について述べる。
事前学習したモデルから抽出した顔の感情記述子と音響的特徴と音声から認識されたテキストの埋め込みを組み合わせる。
フレームレベルの特徴を単純に集約し、多層パーセプトロンを訓練することにより、感情的模倣強度の映像レベル予測を実現する。
論文 参考訳(メタデータ) (2025-03-13T14:21:46Z) - HSEmotion Team at the 7th ABAW Challenge: Multi-Task Learning and Compound Facial Expression Recognition [16.860963320038902]
HSEmotionチームは,第7回ABAW(Affective Behavior Analysis in-the-wild)コンペティションの2つの課題について報告する。
マルチタスク設定で事前学習したフレームレベルの顔特徴抽出器に基づく効率的なパイプラインを提案する。
ニューラルネットワークの軽量アーキテクチャを利用することで、私たちのテクニックのプライバシ意識を確保する。
論文 参考訳(メタデータ) (2024-07-18T05:47:49Z) - HSEmotion Team at the 6th ABAW Competition: Facial Expressions, Valence-Arousal and Emotion Intensity Prediction [16.860963320038902]
我々は、下流タスクのためにニューラルネットワークを微調整することなく、信頼できる感情的特徴を抽出する訓練済みのディープモデルを使用することの可能性を検討する。
我々は、マルチタスクシナリオで訓練されたMobileViT、MobileFaceNet、EfficientNet、DFNDAMアーキテクチャに基づいて、表情を認識するための軽量モデルをいくつか導入する。
提案手法では,既存の非アンサンブル手法と比較して,検証セットの品質指標を大幅に改善する。
論文 参考訳(メタデータ) (2024-03-18T09:08:41Z) - EmotiEffNet Facial Features in Uni-task Emotion Recognition in Video at
ABAW-5 competition [7.056222499095849]
第5回ABAW(Affective Behavior Analysis in-the-Wild)コンペティションの結果を報告する。
The use of the pre-trained convolutional network from the EmotiEffNet family for frame-level feature extract。
論文 参考訳(メタデータ) (2023-03-16T08:57:33Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Frame-level Prediction of Facial Expressions, Valence, Arousal and
Action Units for Mobile Devices [7.056222499095849]
本稿では,AffectNetで事前学習した1つのEfficientNetモデルを用いて,顔の特徴を抽出し,フレームレベルの感情認識アルゴリズムを提案する。
当社のアプローチは,モバイルデバイス上でのビデオ解析にも適用できる。
論文 参考訳(メタデータ) (2022-03-25T03:53:27Z) - MEmoBERT: Pre-training Model with Prompt-based Learning for Multimodal
Emotion Recognition [118.73025093045652]
マルチモーダル感情認識のための事前学習モデル textbfMEmoBERT を提案する。
従来の「訓練前、微妙な」パラダイムとは異なり、下流の感情分類タスクをマスク付きテキスト予測として再構成するプロンプトベースの手法を提案する。
提案するMEMOBERTは感情認識性能を大幅に向上させる。
論文 参考訳(メタデータ) (2021-10-27T09:57:00Z) - Improving Music Performance Assessment with Contrastive Learning [78.8942067357231]
本研究では,既存のMPAシステムを改善するための潜在的手法として,コントラスト学習について検討する。
畳み込みニューラルネットワークに適用された回帰タスクに適した重み付きコントラスト損失を導入する。
この結果から,MPA回帰タスクにおいて,コントラッシブ・ベースの手法がSoTA性能に適合し,超越できることが示唆された。
論文 参考訳(メタデータ) (2021-08-03T19:24:25Z) - Robust Pre-Training by Adversarial Contrastive Learning [120.33706897927391]
近年の研究では、敵の訓練と統合されると、自己監督型事前訓練が最先端の堅牢性につながることが示されている。
我々は,データ強化と対向的摂動の両面に整合した学習表現により,ロバストネスを意識した自己指導型事前学習を改善する。
論文 参考訳(メタデータ) (2020-10-26T04:44:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。