論文の概要: Emotion recognition techniques with rule based and machine learning
approaches
- arxiv url: http://arxiv.org/abs/2103.00658v1
- Date: Sun, 28 Feb 2021 23:21:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-04 22:45:37.296340
- Title: Emotion recognition techniques with rule based and machine learning
approaches
- Title(参考訳): ルールベースと機械学習による感情認識技術
- Authors: Aasma Aslam, Babar Hussian
- Abstract要約: まぶた、口を開け、口の角、額のしわという4つの表情特徴を用いて、正常、オクルード、部分的にオクルードされた画像から感情を識別した。
そこで我々は,眼球位置,眼窩収縮,口角を検出する新しい方法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Emotion recognition using digital image processing is a multifarious task
because facial emotions depend on warped facial features as well as on gender,
age, and culture. Furthermore, there are several factors such as varied
illumination and intricate settings that increase complexity in facial emotion
recognition. In this paper, we used four salient facial features, Eyebrows,
Mouth opening, Mouth corners, and Forehead wrinkles to identifying emotions
from normal, occluded and partially-occluded images. We have employed
rule-based approach and developed new methods to extract aforementioned facial
features similar to local bit patterns using novel techniques. We propose new
methods to detect eye location, eyebrow contraction, and mouth corners. For eye
detection, the proposed methods are Enhancement of Cr Red (ECrR) and
Suppression of Cr Blue (SCrB) which results in 98% accuracy. Additionally, for
eyebrow contraction detection, we propose two techniques (1) Morphological
Gradient Image Intensity (MGII) and (2) Degree of Curvature Line (DCL).
Additionally, we present a new method for mouth corners detection. For
classification purpose, we use an individual classifier, majority voting (MV)
and weighted majority voting (WMV) methods which mimic Human Emotions
Sensitivity (HES). These methods are straightforward to implement, improve the
accuracy of results, and work best for emotion recognition using partially
occluded images. It is ascertained from the results that our method outperforms
previous approaches. Overall accuracy rates are around 94%. The processing time
on one image using processor core i5 is ~0.12 sec.
- Abstract(参考訳): デジタル画像処理を用いた感情認識は、性別、年齢、文化だけでなく、歪んだ顔の特徴にも依存するため、多義的な課題である。
さらに、さまざまな照明や複雑な設定などの要因があり、顔の感情認識の複雑さを高めます。
本論文では, 正常, 閉塞, 部分閉塞画像からの情動を識別するために, 眼球運動, ムース開口, モースコーナー, フォアヘッドの4つの顔特徴を用いた。
我々はルールベースアプローチを採用し,新しい手法を用いて局所ビットパターンに似た顔特徴を抽出する新しい手法を開発した。
そこで我々は,眼球位置,眼窩収縮,口角を検出する新しい方法を提案する。
眼球検出のために提案された方法は、Cr赤(ECrR)の増強とCr青(SCrB)の抑制であり、これは98%の精度をもたらす。
また,眼球収縮検出には,(1)形態的傾斜画像強度(mgii)と(2)曲率線度(dcl)の2つの手法を提案する。
さらに,口角検出のための新しい手法を提案する。
分類には,人間感情感性(HES)を模倣した個人分類器,多数決(MV)および重み付け多数決(WMV)方式を用いる。
これらの方法は実装が簡単で、結果の精度が向上し、部分閉塞画像を用いた感情認識に最適である。
この方法が以前のアプローチよりも優れていることは、結果から明らかです。
全体の精度率は約94%です。
プロセッサコアi5を用いた1画像の処理時間は0.12秒である。
関連論文リスト
- Semantic Contextualization of Face Forgery: A New Definition, Dataset, and Detection Method [77.65459419417533]
我々は,顔フォージェリを意味的文脈に配置し,意味的顔属性を変更する計算手法が顔フォージェリの源であることを定義した。
階層的なグラフで整理されたラベルの集合に各画像が関連付けられている大規模な顔偽画像データセットを構築した。
本稿では,ラベル関係を捕捉し,その優先課題を優先するセマンティクス指向の顔偽造検出手法を提案する。
論文 参考訳(メタデータ) (2024-05-14T10:24:19Z) - A survey on facial image deblurring [3.6775758132528877]
顔画像がぼやけていると、顔認識などのハイレベルな視覚タスクに大きな影響を与えます。
本稿では,最近発表された顔画像の難読化手法について概説し,その大部分はディープラーニングに基づくものである。
本稿では,データセットとメトリクスにおける古典的手法の性能を示すとともに,モデルに基づく手法と学習に基づく手法の違いについて,簡単な議論を行う。
論文 参考訳(メタデータ) (2023-02-10T02:24:56Z) - PERI: Part Aware Emotion Recognition In The Wild [4.206175795966693]
本稿では視覚的特徴を用いた感情認識に焦点を当てる。
身体のポーズと顔のランドマークの両方から生成されたマスクを用いて、入力画像からキー領域を抽出し、部分認識空間(PAS)画像を作成する。
野生のEMOTICデータセットで公開されている結果について報告する。
論文 参考訳(メタデータ) (2022-10-18T20:01:40Z) - Finding Emotions in Faces: A Meta-Classifier [0.0]
顔のランドマークに基づく特徴認識と,全画素の深層学習の2つのアプローチを検討する。
これらの手法を組み合わせた新しいメタ分類器を提案する。
77%の精度で、はるかに優れた結果が得られる。
論文 参考訳(メタデータ) (2022-08-20T13:11:18Z) - A Novel Enhanced Convolution Neural Network with Extreme Learning
Machine: Facial Emotional Recognition in Psychology Practices [31.159346405039667]
本研究の目的は、トレーニングセッション中の顔の感情認識精度を改善し、処理時間を短縮することである。
提案したCNNEELMモデルは、JSFFE、CK+、FER2013式データセットでトレーニングされている。
シミュレーションの結果,精度と処理時間が大きく向上し,映像解析に適したモデルが得られた。
論文 参考訳(メタデータ) (2022-08-05T02:21:34Z) - Emotion Separation and Recognition from a Facial Expression by Generating the Poker Face with Vision Transformers [57.1091606948826]
我々はこれらの課題に対処するため,ポーカー・フェイス・ビジョン・トランスフォーマー (PF-ViT) と呼ばれる新しいFERモデルを提案する。
PF-ViTは、対応するポーカーフェースを生成して、乱れを認識できない感情を静的な顔画像から分離し、認識することを目的としている。
PF-ViTはバニラビジョントランスフォーマーを使用し、そのコンポーネントは大規模な表情データセット上でMasked Autoencodeerとして事前トレーニングされている。
論文 参考訳(メタデータ) (2022-07-22T13:39:06Z) - EMOCA: Emotion Driven Monocular Face Capture and Animation [59.15004328155593]
本稿では,学習中の感情の深層的一貫性を損なうことによって,再構成された3次元表現が入力画像に表現された表現と一致することを確実にする。
In-the-wild emotion recognitionのタスクでは、人間の行動を分析する上での3D幾何の価値を強調しながら、最も優れた画像ベースの手法と同等に幾何学的アプローチを実践しています。
論文 参考訳(メタデータ) (2022-04-24T15:58:35Z) - On the Effect of Selfie Beautification Filters on Face Detection and
Recognition [53.561797148529664]
ソーシャルメディア画像フィルターは、例えば人工眼鏡や動物の鼻で、画像コントラスト、照明、あるいは顔の一部を妨げる。
U-NETセグメンテーションネットワークの修正版を用いて適用操作を再構築する手法を開発した。
認識の観点からは、顔を認識するために訓練されたResNet-34ネットワークを用いて抽出された特徴に対して、距離測定と訓練された機械学習アルゴリズムを用いる。
論文 参考訳(メタデータ) (2021-10-17T22:10:56Z) - Facial Manipulation Detection Based on the Color Distribution Analysis
in Edge Region [0.5735035463793008]
操作画像におけるエッジの垂直領域の色分布解析に基づく、一般化された、ロバストな顔操作検出手法を提案する。
本手法は, 各種データセットにおける合成顔画像の検出において, トレーニングに係わるか否かに関わらず, 既存の顔画像検出方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-02-02T08:19:35Z) - Facial Emotion Recognition with Noisy Multi-task Annotations [88.42023952684052]
ノイズの多いマルチタスクアノテーションを用いた顔の感情認識の新しい問題を提案する。
この新たな問題に対して,共同分布マッチングの観点からの定式化を提案する。
我々は,感情予測と共同分布学習を可能にする新しい手法を利用する。
論文 参考訳(メタデータ) (2020-10-19T20:39:37Z) - DeepFake Detection Based on the Discrepancy Between the Face and its
Context [94.47879216590813]
単一画像における顔のスワップやその他のアイデンティティ操作を検出する手法を提案する。
提案手法は, (i) 厳密なセマンティックセグメンテーションによって境界付けられた顔領域を考慮した顔識別ネットワークと, (ii) 顔コンテキストを考慮したコンテキスト認識ネットワークの2つのネットワークを含む。
本稿では,2つのネットワークからの認識信号を用いて,そのような不一致を検出する手法について述べる。
提案手法は,FaceForensics++,Celeb-DF-v2,DFDCベンチマークを用いて顔検出を行い,未知の手法で生成した偽物の検出を一般化する。
論文 参考訳(メタデータ) (2020-08-27T17:04:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。