論文の概要: Color histogram equalization and fine-tuning to improve expression recognition of (partially occluded) faces on sign language datasets
- arxiv url: http://arxiv.org/abs/2507.20197v1
- Date: Sun, 27 Jul 2025 09:29:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:57.255903
- Title: Color histogram equalization and fine-tuning to improve expression recognition of (partially occluded) faces on sign language datasets
- Title(参考訳): 色ヒストグラムの等化と微調整により手話データセット上での(部分的に隠蔽された)顔の表情認識を改善する
- Authors: Fabrizio Nunnari, Alakshendra Jyotsnaditya Ramkrishna Singh, Patrick Gebhard,
- Abstract要約: 顔の上面と下面のみを用いて表情を認識することで実験を拡張した。
83.8%の平均感度と,クラス間での差 (.042) がほとんどなく, 表情を正しく認識する能力を示す。
顔の上半身の分類精度は人間よりも高い。
- 参考スコア(独自算出の注目度): 6.412088261601905
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The goal of this investigation is to quantify to what extent computer vision methods can correctly classify facial expressions on a sign language dataset. We extend our experiments by recognizing expressions using only the upper or lower part of the face, which is needed to further investigate the difference in emotion manifestation between hearing and deaf subjects. To take into account the peculiar color profile of a dataset, our method introduces a color normalization stage based on histogram equalization and fine-tuning. The results show the ability to correctly recognize facial expressions with 83.8% mean sensitivity and very little variance (.042) among classes. Like for humans, recognition of expressions from the lower half of the face (79.6%) is higher than that from the upper half (77.9%). Noticeably, the classification accuracy from the upper half of the face is higher than human level.
- Abstract(参考訳): 本研究の目的は,手話データセット上で,コンピュータビジョン手法が表情を正しく分類できる範囲を定量化することである。
本研究は, 顔の上面と下面のみを用いて表情を認識することで, 聴覚と難聴者の感情表現の相違について検討する。
データセットの特異な色プロファイルを考慮し,ヒストグラム等化と微調整に基づく色正規化ステージを導入する。
その結果、83.8%の平均感度と、クラス間での差(.042)がほとんどない表情を正しく認識する能力が示された。
人間と同様に、顔の下半身(79.6%)からの表情の認識は上半身(77.9%)よりも高い。
顔の上半身の分類精度は人間よりも高い。
関連論文リスト
- Facial Landmark Visualization and Emotion Recognition Through Neural Networks [0.0]
顔画像からの感情認識は、人間とコンピュータの相互作用において重要な課題である。
これまでの研究では、顔認識がディープラーニングモデルのトレーニングに利用できることが示されている。
顔データセットの外れ値を特定するための可視化技術である顔ランドマークボックスプロットを提案する。
論文 参考訳(メタデータ) (2025-06-20T17:45:34Z) - Leaving Some Facial Features Behind [0.0]
本研究では,Fer2013データセットの顔摂動を用いて,顔の特徴が感情分類にどのように影響するかを検討する。
データに基づいてトレーニングされたモデルは、幸せや驚きといった感情のベースラインと比較して、重要な顔の特徴を除去することで、最大85%の精度低下を経験します。
論文 参考訳(メタデータ) (2024-10-29T02:28:53Z) - Knowledge-Enhanced Facial Expression Recognition with Emotional-to-Neutral Transformation [66.53435569574135]
既存の表情認識法は、通常、個別のラベルを使って訓練済みのビジュアルエンコーダを微調整する。
視覚言語モデルによって生成されるテキスト埋め込みの豊富な知識は、識別的表情表現を学ぶための有望な代替手段である。
感情-中性変換を用いた知識強化FER法を提案する。
論文 参考訳(メタデータ) (2024-09-13T07:28:57Z) - How Do You Perceive My Face? Recognizing Facial Expressions in Multi-Modal Context by Modeling Mental Representations [5.895694050664867]
本稿では,単純な分類タスクを超越した新しい表情分類手法を提案する。
本モデルでは,認識された顔を正確に分類し,文脈で顔を観察する際,人間によって知覚される対応する心的表現を合成する。
本研究では,人間の心的表現の近似を効果的に生成することを示す。
論文 参考訳(メタデータ) (2024-09-04T09:32:40Z) - Benchmarking Algorithmic Bias in Face Recognition: An Experimental
Approach Using Synthetic Faces and Human Evaluation [24.35436087740559]
顔認識システムにおけるバイアスを測定する実験手法を提案する。
本手法は,ニューラルフェイスジェネレータを用いて合成顔を生成する。
我々は3つの研究グレードの顔認識モデルの人種と性別の偏りを定量的に評価する。
論文 参考訳(メタデータ) (2023-08-10T08:57:31Z) - Emotion Recognition for Challenged People Facial Appearance in Social
using Neural Network [0.0]
CNNでは、取得した画像を異なる感情カテゴリに分類するために顔表現が使用される。
本稿では,画像による表情の認識と啓蒙の不変性について提案する。
論文 参考訳(メタデータ) (2023-05-11T14:38:27Z) - Multi-Domain Norm-referenced Encoding Enables Data Efficient Transfer
Learning of Facial Expression Recognition [62.997667081978825]
本稿では,表情認識における伝達学習のための生物学的メカニズムを提案する。
提案アーキテクチャでは,人間の脳が,頭部形状の異なる表情を自然に認識する方法について解説する。
本モデルでは, FERGデータセットの分類精度92.15%を極端に高いデータ効率で達成する。
論文 参考訳(メタデータ) (2023-04-05T09:06:30Z) - Are Face Detection Models Biased? [69.68854430664399]
顔領域の局所化による顔検出領域のバイアスについて検討した。
既存の顔検出データセットの多くは、このような分析に適したアノテーションを欠いている。
性別や肌の音色による検出精度の相違を観察し, 画像診断以外の要因の相互関係を考察した。
論文 参考訳(メタデータ) (2022-11-07T14:27:55Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - Emotion Separation and Recognition from a Facial Expression by Generating the Poker Face with Vision Transformers [57.1091606948826]
我々はこれらの課題に対処するため,ポーカー・フェイス・ビジョン・トランスフォーマー (PF-ViT) と呼ばれる新しいFERモデルを提案する。
PF-ViTは、対応するポーカーフェースを生成して、乱れを認識できない感情を静的な顔画像から分離し、認識することを目的としている。
PF-ViTはバニラビジョントランスフォーマーを使用し、そのコンポーネントは大規模な表情データセット上でMasked Autoencodeerとして事前トレーニングされている。
論文 参考訳(メタデータ) (2022-07-22T13:39:06Z) - Learning Fair Face Representation With Progressive Cross Transformer [79.73754444296213]
フェアフェイス認識のためのプログレッシブクロストランス (PCT) 手法を提案する。
我々は,PCTが最先端FR性能を達成しつつ,顔認識におけるバイアスを軽減することができることを示した。
論文 参考訳(メタデータ) (2021-08-11T01:31:14Z) - Facial Expressions as a Vulnerability in Face Recognition [73.85525896663371]
本研究では,顔認識システムのセキュリティ脆弱性としての表情バイアスについて検討する。
本稿では,表情バイアスが顔認識技術の性能に与える影響を包括的に分析する。
論文 参考訳(メタデータ) (2020-11-17T18:12:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。