論文の概要: A Perception CNN for Facial Expression Recognition
- arxiv url: http://arxiv.org/abs/2512.06422v1
- Date: Sat, 06 Dec 2025 12:45:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.352398
- Title: A Perception CNN for Facial Expression Recognition
- Title(参考訳): 顔表情認識のための知覚CNN
- Authors: Chunwei Tian, Jingyuan Xie, Lingjun Li, Wangmeng Zuo, Yanning Zhang, David Zhang,
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、表情認識(FER)のための顔画像を表現するデータパターンを自動的に学習する。
本稿では,PCNNと同様にFERに対する認識CNNを提案する。
実験の結果,PCNNは複数の実験室および実世界のFERベンチマークにおいて優れた結果が得られることがわかった。
- 参考スコア(独自算出の注目度): 80.62373975749665
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Convolutional neural networks (CNNs) can automatically learn data patterns to express face images for facial expression recognition (FER). However, they may ignore effect of facial segmentation of FER. In this paper, we propose a perception CNN for FER as well as PCNN. Firstly, PCNN can use five parallel networks to simultaneously learn local facial features based on eyes, cheeks and mouth to realize the sensitive capture of the subtle changes in FER. Secondly, we utilize a multi-domain interaction mechanism to register and fuse between local sense organ features and global facial structural features to better express face images for FER. Finally, we design a two-phase loss function to restrict accuracy of obtained sense information and reconstructed face images to guarantee performance of obtained PCNN in FER. Experimental results show that our PCNN achieves superior results on several lab and real-world FER benchmarks: CK+, JAFFE, FER2013, FERPlus, RAF-DB and Occlusion and Pose Variant Dataset. Its code is available at https://github.com/hellloxiaotian/PCNN.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は、表情認識(FER)のために顔画像を表現するデータパターンを自動的に学習する。
しかし、FERの顔分割の効果を無視する可能性がある。
本稿では,PCNNと同様にFERに対する認識CNNを提案する。
第一に、PCNNは5つの並列ネットワークを使用して、目、頬、口に基づく局所的な顔の特徴を同時に学習し、FERの微妙な変化の繊細な捉え方を実現する。
第2に,マルチドメインインタラクション機構を用いて局所感覚器官の特徴とグローバルな顔構造特徴を登録・融合し,FERのための顔画像の表現を改善する。
最後に、得られた感覚情報の精度を制限する二相損失関数を設計し、顔画像の再構成を行い、FERにおけるPCNNの性能を保証する。
実験の結果,PCNN は CK+, JAFFE, FER2013, FERPlus, RAF-DB, Occlusion および Pose Variant Dataset など,実験室および実世界の FER ベンチマークにおいて,優れた結果が得られた。
コードはhttps://github.com/hellloxiaotian/PCNNで公開されている。
関連論文リスト
- Securing Fixed Neural Network Steganography [37.08937194546323]
画像ステガノグラフィー(英: Image steganography)は、画像に秘密情報を隠蔽する技術であり、無許可の当事者には受け入れられない。
最近の進歩は、秘密の埋め込みと抽出に固定ニューラルネットワーク(FNN)を使用することが可能であることを示している。
キーベースのFNNSスキームを提案し,FNNSの安全性を向上させる。
論文 参考訳(メタデータ) (2023-09-18T12:07:37Z) - Dynamic Gesture Recognition [0.0]
従来のコンピュータビジョンアルゴリズムの代わりに、機械学習を使って画像や動画を分類することができる。
このプロジェクトの目的は、畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)の共生を構築することである。
論文 参考訳(メタデータ) (2021-09-20T09:45:29Z) - TANet: A new Paradigm for Global Face Super-resolution via
Transformer-CNN Aggregation Network [72.41798177302175]
本稿では, 顔構造特徴の表現能力を完全に探求する自己認識機構(すなわち Transformer のコア)に基づく新しいパラダイムを提案する。
具体的には、2つの経路からなるTransformer-CNNアグリゲーションネットワーク(TANet)を設計する。
上記の2つの経路から特徴を集約することにより、グローバルな顔の構造の整合性と局所的な顔のディテール復元の忠実度を同時に強化する。
論文 参考訳(メタデータ) (2021-09-16T18:15:07Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - Video-based Facial Expression Recognition using Graph Convolutional
Networks [57.980827038988735]
我々は、ビデオベースの表情認識のための共通のCNN-RNNモデルに、GCN(Graph Convolutional Network)層を導入する。
我々は、CK+、Oulu-CASIA、MMIの3つの広く使われているデータセットと、AFEW8.0の挑戦的なワイルドデータセットについて、本手法の評価を行った。
論文 参考訳(メタデータ) (2020-10-26T07:31:51Z) - Exploring the Interchangeability of CNN Embedding Spaces [0.5735035463793008]
画像分類CNN10点と顔認識CNN4点をマップする。
同じクラスにトレーニングされ、共通のバックエンド-ログアーキテクチャを共有するCNNの場合、リニアマッピングは常にバックエンド層重みから直接計算される。
この意味は遠く離れており、共通のタスクのために設計、訓練されたネットワークによって学習された表現間の基礎的な共通性を示している。
論文 参考訳(メタデータ) (2020-10-05T20:32:40Z) - The FaceChannel: A Fast & Furious Deep Neural Network for Facial
Expression Recognition [71.24825724518847]
顔の表情の自動認識(FER)の最先端モデルは、非常に深いニューラルネットワークに基づいており、訓練には効果的だがかなり高価である。
私たちは、一般的なディープニューラルネットワークよりもはるかに少ないパラメータを持つ軽量ニューラルネットワークであるFaceChannelを形式化します。
我々は、私たちのモデルがFERの現在の最先端技術に匹敵するパフォーマンスを達成する方法を実証する。
論文 参考訳(メタデータ) (2020-09-15T09:25:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。