論文の概要: Feature Aggregation for Efficient Continual Learning of Complex Facial Expressions
- arxiv url: http://arxiv.org/abs/2512.12277v1
- Date: Sat, 13 Dec 2025 10:39:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.196686
- Title: Feature Aggregation for Efficient Continual Learning of Complex Facial Expressions
- Title(参考訳): 複雑な表情の効率的な連続学習のための特徴集約
- Authors: Thibault Geoffroy, Myriam Maumy, Lionel Prevost,
- Abstract要約: 表情認識のためのハイブリッドフレームワーク(FER)を提案する。
本モデルでは,まず基本表現を学習し,次に複合表現を段階的に認識できることが示される。
実験では、精度の向上、知識の保持の強化、忘れの削減が示されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As artificial intelligence (AI) systems become increasingly embedded in our daily life, the ability to recognize and adapt to human emotions is essential for effective human-computer interaction. Facial expression recognition (FER) provides a primary channel for inferring affective states, but the dynamic and culturally nuanced nature of emotions requires models that can learn continuously without forgetting prior knowledge. In this work, we propose a hybrid framework for FER in a continual learning setting that mitigates catastrophic forgetting. Our approach integrates two complementary modalities: deep convolutional features and facial Action Units (AUs) derived from the Facial Action Coding System (FACS). The combined representation is modelled through Bayesian Gaussian Mixture Models (BGMMs), which provide a lightweight, probabilistic solution that avoids retraining while offering strong discriminative power. Using the Compound Facial Expression of Emotion (CFEE) dataset, we show that our model can first learn basic expressions and then progressively recognize compound expressions. Experiments demonstrate improved accuracy, stronger knowledge retention, and reduced forgetting. This framework contributes to the development of emotionally intelligent AI systems with applications in education, healthcare, and adaptive user interfaces.
- Abstract(参考訳): 人工知能(AI)システムが私たちの日常生活にますます浸透していくにつれ、人間の感情を認識し、適応する能力は、人間とコンピュータの効果的な相互作用に不可欠である。
表情認識(FER)は感情的状態を推定するための主要なチャネルを提供するが、動的で文化的にニュアンスな感情の性質は、事前の知識を忘れずに継続的に学習できるモデルを必要とする。
本研究では,悲惨な忘れを和らげる連続学習環境におけるFERのハイブリッドフレームワークを提案する。
本手法は,顔面行動符号化システム(FACS)から派生した深部畳み込み特徴と顔面行動単位(AUs)の2つの相補的モダリティを統合した。
複合表現はベイジアン・ガウス混合モデル(英語版)(BGMM)によってモデル化され、強力な識別力を提供しながら再訓練を避ける軽量で確率的なソリューションを提供する。
複合表情表現(CFEE)データセットを用いて,本モデルではまず基本表現を学習し,次に段階的に複合表現を認識できることを示す。
実験では、精度の向上、知識の保持の強化、忘れの削減が示されている。
このフレームワークは、教育、医療、適応型ユーザーインタフェースに応用された感情的にインテリジェントなAIシステムの開発に寄与する。
関連論文リスト
- The Imperfect Learner: Incorporating Developmental Trajectories in Memory-based Student Simulation [55.722188569369656]
本稿では,メモリベースの学生シミュレーションのための新しいフレームワークを提案する。
構造的知識表現を備えた階層記憶機構を通じて発達軌道を組み込む。
実際に,次世代科学標準に基づくカリキュラム・アライン・シミュレータを実装した。
論文 参考訳(メタデータ) (2025-11-08T08:05:43Z) - Compound Expression Recognition via Large Vision-Language Models [9.401699207785015]
複合表現認識(CER)は、人間の感情を理解し、人間とコンピュータの相互作用を改善するために重要である。
これらの問題に対処するため、我々はLVLM(Large Vision-Language Models)を利用した新しいアプローチを提案する。
提案手法は,2段階の微調整プロセスを用いており,第1に,事前学習したLVLMは基本的表情に基づいて微調整を行い,基礎的パターンを確立する。
論文 参考訳(メタデータ) (2025-03-14T09:46:05Z) - Emotion Recognition with CLIP and Sequential Learning [5.66758879852618]
本稿では,Valence-Arousal (VA) Estimation Challenge, Expression Recognition Challenge, and the Action Unit (AU) Detection Challengeについて述べる。
本手法では,継続的な感情認識の促進を目的とした新しい枠組みを導入する。
論文 参考訳(メタデータ) (2025-03-13T01:02:06Z) - Milmer: a Framework for Multiple Instance Learning based Multimodal Emotion Recognition [16.616341358877243]
本研究は,表情解析と脳波信号の統合による感情認識の課題に対処する。
提案するフレームワークは、視覚的および生理的モダリティを効果的に統合するために、トランスフォーマーベースの融合アプローチを採用している。
この研究の重要な革新は、複数の表情画像から意味のある情報を抽出する多重インスタンス学習(MIL)アプローチの採用である。
論文 参考訳(メタデータ) (2025-02-01T20:32:57Z) - EmoNeXt: an Adapted ConvNeXt for Facial Emotion Recognition [0.0]
EmoNeXtは、適応型ConvNeXtアーキテクチャネットワークに基づく、表情認識のための新しいディープラーニングフレームワークである。
我々は、感情分類精度に関するFER2013データセット上で、既存の最先端ディープラーニングモデルよりもモデルの方が優れていることを示す。
論文 参考訳(メタデータ) (2025-01-14T15:23:36Z) - Static for Dynamic: Towards a Deeper Understanding of Dynamic Facial Expressions Using Static Expression Data [85.71013961405036]
本稿では,DFERの補完リソースとしてSFERデータを統合した統合型デュアルモーダル学習フレームワークを提案する。
S4Dは、共有トランスフォーマー(ViT)エンコーダデコーダアーキテクチャを用いて、顔画像とビデオに対して、デュアルモーダルな自己教師付き事前トレーニングを採用する。
実験により、S4DはDFERをより深く理解し、新しい最先端のパフォーマンスを設定できることが示された。
論文 参考訳(メタデータ) (2024-09-10T01:57:57Z) - Self-supervised Gait-based Emotion Representation Learning from Selective Strongly Augmented Skeleton Sequences [4.740624855896404]
自己教師型歩行に基づく感情表現のための選択的強強化を利用したコントラスト学習フレームワークを提案する。
提案手法はEmotion-Gait (E-Gait) と Emilya のデータセットで検証され, 異なる評価プロトコル下での最先端手法よりも優れている。
論文 参考訳(メタデータ) (2024-05-08T09:13:10Z) - Alleviating Catastrophic Forgetting in Facial Expression Recognition with Emotion-Centered Models [49.3179290313959]
感情中心型生成的リプレイ (ECgr) は, 生成的対向ネットワークから合成画像を統合することで, この課題に対処する。
ECgrは、生成された画像の忠実性を保証するために品質保証アルゴリズムを組み込んでいる。
4つの多様な表情データセットに対する実験結果から,擬似リハーサル法により生成されたイメージを組み込むことで,ターゲットとするデータセットとソースデータセットのトレーニングが促進されることが示された。
論文 参考訳(メタデータ) (2024-04-18T15:28:34Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - AU-Expression Knowledge Constrained Representation Learning for Facial
Expression Recognition [79.8779790682205]
本稿では,auアノテーションを使わずにau表現を学習し,表情認識を容易にするau表現知識制約表現学習(aue-crl)フレームワークを提案する。
課題のある非制御データセットの実験を行い,提案されたフレームワークが現状の手法よりも優れていることを実証する。
論文 参考訳(メタデータ) (2020-12-29T03:42:04Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。