論文の概要: Facial Expression Recognition Using Residual Masking Network
- arxiv url: http://arxiv.org/abs/2603.05937v1
- Date: Fri, 06 Mar 2026 06:08:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:45.177291
- Title: Facial Expression Recognition Using Residual Masking Network
- Title(参考訳): 残像マスキングネットワークを用いた顔表情認識
- Authors: Luan Pham, The Huynh Vu, Tuan Anh Tran,
- Abstract要約: 表情タスクにおけるCNNの性能を高めるための新しいMaskingアイデアを提案する。
実験では,ユビキタスなDeep Residual NetworkとUnetのようなアーキテクチャを組み合わせて,Residual Masking Networkを作成する。
提案手法は、よく知られたFER2013およびプライベートVEMOデータセットのSOTA(State-of-the-art)精度を保持する。
- 参考スコア(独自算出の注目度): 0.28675177318965045
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatic facial expression recognition (FER) has gained much attention due to its applications in human-computer interaction. Among the approaches to improve FER tasks, this paper focuses on deep architecture with the attention mechanism. We propose a novel Masking idea to boost the performance of CNN in facial expression task. It uses a segmentation network to refine feature maps, enabling the network to focus on relevant information to make correct decisions. In experiments, we combine the ubiquitous Deep Residual Network and Unet-like architecture to produce a Residual Masking Network. The proposed method holds state-of-the-art (SOTA) accuracy on the well-known FER2013 and private VEMO datasets. The source code is available at https://github.com/phamquiluan/ResidualMaskingNetwork.
- Abstract(参考訳): 顔表情の自動認識(FER)は、人間とコンピュータのインタラクションに応用されているため、注目されている。
本稿では、FERタスクを改善するためのアプローチとして、注目機構を備えたディープアーキテクチャに焦点を当てる。
表情タスクにおけるCNNの性能を高めるための新しいMaskingアイデアを提案する。
セグメンテーションネットワークを使って特徴マップを洗練し、ネットワークが関連する情報に集中して正しい判断をすることができる。
実験では,ユビキタスなDeep Residual NetworkとUnetのようなアーキテクチャを組み合わせて,Residual Masking Networkを作成する。
提案手法は、よく知られたFER2013およびプライベートVEMOデータセットのSOTA(State-of-the-art)精度を保持する。
ソースコードはhttps://github.com/phamquiluan/ResidualMaskingNetwork.comで公開されている。
関連論文リスト
- A Visual Self-attention Mechanism Facial Expression Recognition Network beyond Convnext [5.651484411686618]
本稿では,truncated ConvNeXtアプローチに基づく視覚表情信号処理ネットワークを提案する(Conv-cut)。
ネットワークは,特徴抽出器としてトラッピングされたConvNeXt-Baseを使用し,詳細特徴抽出のための詳細抽出ブロックを設計した。
提案手法を評価するために,RAF-DBおよびFERPlusデータセットの実験を行った。
論文 参考訳(メタデータ) (2025-04-12T04:35:37Z) - Generating visual explanations from deep networks using implicit neural representations [0.6056822594090163]
本研究では、暗黙的神経表現(INR)が視覚的説明を生成するための良い枠組みであることを示す。
同じ画像に対して複数の重複しない属性マスクを生成するために、反復INRベースの手法を提案する。
論文 参考訳(メタデータ) (2025-01-20T23:17:57Z) - LAC-Net: Linear-Fusion Attention-Guided Convolutional Network for Accurate Robotic Grasping Under the Occlusion [79.22197702626542]
本稿では, 乱れ場面におけるロボットグルーピングのためのアモーダルセグメンテーションを探求する枠組みを提案する。
線形融合注意誘導畳み込みネットワーク(LAC-Net)を提案する。
その結果,本手法が最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-08-06T14:50:48Z) - EMERSK -- Explainable Multimodal Emotion Recognition with Situational
Knowledge [0.0]
状況知識を用いた説明可能なマルチモーダル感情認識(EMERSK)を提案する。
EMERSKは視覚情報を用いた人間の感情認識と説明のための汎用システムである。
本システムは, 表情, 姿勢, 歩行などの複数のモーダルを柔軟かつモジュラーな方法で処理することができる。
論文 参考訳(メタデータ) (2023-06-14T17:52:37Z) - CTCNet: A CNN-Transformer Cooperation Network for Face Image
Super-Resolution [64.06360660979138]
超解像課題に対する効率的なCNN-Transformer Cooperation Network (CTCNet)を提案する。
本稿ではまず,FSAUとTransformerブロックから構成されるLGCM(Local-Global Feature Cooperation Module)を考案した。
次に、エンコードされた機能を強化するために、効率的な機能リファインメントモジュール(FRM)を設計する。
論文 参考訳(メタデータ) (2022-04-19T06:38:29Z) - TANet: A new Paradigm for Global Face Super-resolution via
Transformer-CNN Aggregation Network [72.41798177302175]
本稿では, 顔構造特徴の表現能力を完全に探求する自己認識機構(すなわち Transformer のコア)に基づく新しいパラダイムを提案する。
具体的には、2つの経路からなるTransformer-CNNアグリゲーションネットワーク(TANet)を設計する。
上記の2つの経路から特徴を集約することにより、グローバルな顔の構造の整合性と局所的な顔のディテール復元の忠実度を同時に強化する。
論文 参考訳(メタデータ) (2021-09-16T18:15:07Z) - AXM-Net: Cross-Modal Context Sharing Attention Network for Person Re-ID [20.700750237972155]
クロスモーダルな人物識別(Re-ID)は、現代のビデオ監視システムにおいて重要である。
主な課題は、人に存在する意味情報に従ってモダリティ間表現を整合させ、背景情報を無視することです。
AXM-Netは、意味的に整列された視覚およびテキスト表現を学習するために設計された新しいCNNベースのアーキテクチャである。
論文 参考訳(メタデータ) (2021-01-19T16:06:39Z) - Video-based Facial Expression Recognition using Graph Convolutional
Networks [57.980827038988735]
我々は、ビデオベースの表情認識のための共通のCNN-RNNモデルに、GCN(Graph Convolutional Network)層を導入する。
我々は、CK+、Oulu-CASIA、MMIの3つの広く使われているデータセットと、AFEW8.0の挑戦的なワイルドデータセットについて、本手法の評価を行った。
論文 参考訳(メタデータ) (2020-10-26T07:31:51Z) - Deep Multi-Facial Patches Aggregation Network For Facial Expression
Recognition [5.735035463793008]
深層多面的パッチアグリゲーションネットワークに基づく顔表情認識(FER)のアプローチを提案する。
ディープ機能は、ディープサブネットワークを使用して顔のパッチから学習され、表現分類のために1つのディープアーキテクチャに集約される。
論文 参考訳(メタデータ) (2020-02-20T17:57:06Z) - Exploiting Semantics for Face Image Deblurring [121.44928934662063]
本稿では,深層畳み込みニューラルネットワークによる意味的手がかりを利用して,効果的かつ効率的な顔分解アルゴリズムを提案する。
顔のセマンティックラベルを入力先として組み込んで,顔の局所構造を正規化するための適応的構造損失を提案する。
提案手法は、より正確な顔の特徴と細部を持つシャープ画像を復元する。
論文 参考訳(メタデータ) (2020-01-19T13:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。