論文の概要: ExpressNet-MoE: A Hybrid Deep Neural Network for Emotion Recognition
- arxiv url: http://arxiv.org/abs/2510.13493v1
- Date: Wed, 15 Oct 2025 12:42:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.668031
- Title: ExpressNet-MoE: A Hybrid Deep Neural Network for Emotion Recognition
- Title(参考訳): ExpressNet-MoE:感情認識のためのハイブリッドディープニューラルネットワーク
- Authors: Deeptimaan Banerjee, Prateek Gothwal, Ashis Kumer Biswas,
- Abstract要約: ExpressNet-MoEは、CNNとMoEフレームワークを融合した、新しいハイブリッドディープラーニングモデルである。
我々のモデルは、AffectNet(v7)で74.77%、AffectNet(v8)で72.55%、RAF-DBで84.29%、FER-2013で64.66%の精度を達成した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In many domains, including online education, healthcare, security, and human-computer interaction, facial emotion recognition (FER) is essential. Real-world FER is still difficult despite its significance because of some factors such as variable head positions, occlusions, illumination shifts, and demographic diversity. Engagement detection, which is essential for applications like virtual learning and customer services, is frequently challenging due to FER limitations by many current models. In this article, we propose ExpressNet-MoE, a novel hybrid deep learning model that blends both Convolution Neural Networks (CNNs) and Mixture of Experts (MoE) framework, to overcome the difficulties. Our model dynamically chooses the most pertinent expert networks, thus it aids in the generalization and providing flexibility to model across a wide variety of datasets. Our model improves on the accuracy of emotion recognition by utilizing multi-scale feature extraction to collect both global and local facial features. ExpressNet-MoE includes numerous CNN-based feature extractors, a MoE module for adaptive feature selection, and finally a residual network backbone for deep feature learning. To demonstrate efficacy of our proposed model we evaluated on several datasets, and compared with current state-of-the-art methods. Our model achieves accuracies of 74.77% on AffectNet (v7), 72.55% on AffectNet (v8), 84.29% on RAF-DB, and 64.66% on FER-2013. The results show how adaptive our model is and how it may be used to develop end-to-end emotion recognition systems in practical settings. Reproducible codes and results are made publicly accessible at https://github.com/DeeptimaanB/ExpressNet-MoE.
- Abstract(参考訳): オンライン教育、医療、セキュリティ、人間とコンピュータの相互作用を含む多くの領域では、顔の感情認識(FER)が不可欠である。
実世界のFERは、その重要性にもかかわらず、可変頭部位置、閉塞、照明シフト、人口多様性などいくつかの要因があるため、依然として困難である。
エンゲージメント検出は、仮想マシンやカスタマーサービスのようなアプリケーションに必須であり、多くの現行モデルによるFER制限のため、しばしば困難である。
本稿では,コンボリューションニューラルネットワーク(CNN)とMixture of Experts(MoE)フレームワークを融合した新しいハイブリッドディープラーニングモデルであるExpressNet-MoEを提案する。
我々のモデルは、最も適切な専門家ネットワークを動的に選択するため、多種多様なデータセットをまたいだモデルの一般化と柔軟性を提供する。
マルチスケールの特徴抽出を利用して感情認識の精度を向上し,グローバルな特徴と局所的な特徴の両方を抽出する。
ExpressNet-MoEには、多数のCNNベースの特徴抽出器、適応的な特徴選択のためのMoEモジュール、そして最後に深い特徴学習のための残留ネットワークバックボーンが含まれている。
提案モデルの有効性を示すため,いくつかのデータセットを用いて評価を行い,現在の最先端手法と比較した。
我々のモデルは、AffectNet(v7)で74.77%、AffectNet(v8)で72.55%、RAF-DBで84.29%、FER-2013で64.66%の精度を達成した。
その結果、我々のモデルがいかに適応的であるか、そして、実践的な環境でエンドツーエンドの感情認識システムを開発するためにどのように使用されるかが示される。
再現可能なコードと結果はhttps://github.com/DeeptimaanB/ExpressNet-MoEで公開されている。
関連論文リスト
- Multi-modal Transfer Learning for Dynamic Facial Emotion Recognition in the Wild [0.14999444543328289]
顔の表情認識(FER)はコンピュータビジョンのサブセットであり、人間とコンピュータの相互作用、医療、カスタマーサービスに重要な応用がある。
本稿では,ビデオベースFERデータセットの性能向上のために,マルチモーダルトランスファー学習を用いることを検討した。
論文 参考訳(メタデータ) (2025-04-30T01:09:11Z) - SM3Det: A Unified Model for Multi-Modal Remote Sensing Object Detection [73.49799596304418]
本稿では,リモートセンシングのためのマルチモーダルデータセットとマルチタスクオブジェクト検出(M2Det)という新しいタスクを提案する。
水平方向または指向方向の物体を、あらゆるセンサーから正確に検出するように設計されている。
この課題は、1)マルチモーダルモデリングの管理に関わるトレードオフ、2)マルチタスク最適化の複雑さに起因する。
論文 参考訳(メタデータ) (2024-12-30T02:47:51Z) - A Comparative Study of Transfer Learning for Emotion Recognition using CNN and Modified VGG16 Models [0.0]
CNNと修正VGG16モデルの2つのデータセット(FER2013とAffectNet)における感情認識タスクの性能について検討する。
以上の結果から,2つのモデルがFER2013データセット上で妥当な性能を達成し,改良VGG16モデルが精度をわずかに向上したことが明らかとなった。
Affect-Netデータセットで評価すると、両方のモデルのパフォーマンスが低下し、修正VGG16モデルはCNNを上回っ続けている。
論文 参考訳(メタデータ) (2024-07-19T17:41:46Z) - NNsight and NDIF: Democratizing Access to Open-Weight Foundation Model Internals [58.83169560132308]
NNsightとNDIFを導入し、非常に大きなニューラルネットワークによって学習された表現と計算の科学的研究を可能にする。
論文 参考訳(メタデータ) (2024-07-18T17:59:01Z) - EMERSK -- Explainable Multimodal Emotion Recognition with Situational
Knowledge [0.0]
状況知識を用いた説明可能なマルチモーダル感情認識(EMERSK)を提案する。
EMERSKは視覚情報を用いた人間の感情認識と説明のための汎用システムである。
本システムは, 表情, 姿勢, 歩行などの複数のモーダルを柔軟かつモジュラーな方法で処理することができる。
論文 参考訳(メタデータ) (2023-06-14T17:52:37Z) - Machine Learning for QoS Prediction in Vehicular Communication:
Challenges and Solution Approaches [46.52224306624461]
最大スループット予測の強化,例えばストリーミングや高精細マッピングアプリケーションについて検討する。
収集したデータの基盤となる特性をよりよく理解することで、マシンラーニング技術上に信頼性を構築することができるかを強調します。
我々は、説明可能なAIを使用して、機械学習が明示的にプログラムされることなく、無線ネットワークの基本原理を学習できることを示す。
論文 参考訳(メタデータ) (2023-02-23T12:29:20Z) - Learning Diversified Feature Representations for Facial Expression
Recognition in the Wild [97.14064057840089]
本稿では,CNN層が抽出した顔表情認識アーキテクチャの特徴を多様化する機構を提案する。
AffectNet,FER+,RAF-DBの3つの顔表情認識実験の結果,本手法の有効性が示された。
論文 参考訳(メタデータ) (2022-10-17T19:25:28Z) - Multimodal End-to-End Group Emotion Recognition using Cross-Modal
Attention [0.0]
グループレベルの感情を分類することは、ビデオの複雑さのために難しい課題である。
VGAFデータセットベースラインよりも約8.5%高い60.37%の検証精度が得られた。
論文 参考訳(メタデータ) (2021-11-10T19:19:26Z) - Multi-Branch Deep Radial Basis Function Networks for Facial Emotion
Recognition [80.35852245488043]
放射状基底関数(RBF)ユニットによって形成された複数の分岐で拡張されたCNNベースのアーキテクチャを提案する。
RBFユニットは、中間表現を用いて類似のインスタンスで共有される局所パターンをキャプチャする。
提案手法は,提案手法の競争力を高めるためのローカル情報の導入であることを示す。
論文 参考訳(メタデータ) (2021-09-07T21:05:56Z) - Facial Emotion Recognition: State of the Art Performance on FER2013 [0.0]
FER2013データセットで最高の単一ネットワーク分類精度を達成しました。
我々のモデルは、追加のトレーニングデータを用いることなく、FER2013上で73.28 %の最先端のシングルネットワーク精度を実現する。
論文 参考訳(メタデータ) (2021-05-08T04:20:53Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。