論文の概要: Facial Expression Recognition with YOLOv11 and YOLOv12: A Comparative Study
- arxiv url: http://arxiv.org/abs/2511.10940v1
- Date: Fri, 14 Nov 2025 03:57:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.423878
- Title: Facial Expression Recognition with YOLOv11 and YOLOv12: A Comparative Study
- Title(参考訳): YOLOv11とYOLOv12による表情認識 : 比較検討
- Authors: Umma Aymon, Nur Shazwani Kamarudin, Ahmad Fakhri Ab. Nasir,
- Abstract要約: 本研究では, FER の統一検出・分類フレームワークにおいて, YOLOv11n と YOLOv12n の2つの軽量モデルの性能について検討した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Facial Expression Recognition remains a challenging task, especially in unconstrained, real-world environments. This study investigates the performance of two lightweight models, YOLOv11n and YOLOv12n, which are the nano variants of the latest official YOLO series, within a unified detection and classification framework for FER. Two benchmark classification datasets, FER2013 and KDEF, are converted into object detection format and model performance is evaluated using mAP 0.5, precision, recall, and confusion matrices. Results show that YOLOv12n achieves the highest overall performance on the clean KDEF dataset with a mAP 0.5 of 95.6, and also outperforms YOLOv11n on the FER2013 dataset in terms of mAP 63.8, reflecting stronger sensitivity to varied expressions. In contrast, YOLOv11n demonstrates higher precision 65.2 on FER2013, indicating fewer false positives and better reliability in noisy, real-world conditions. On FER2013, both models show more confusion between visually similar expressions, while clearer class separation is observed on the cleaner KDEF dataset. These findings underscore the trade-off between sensitivity and precision, illustrating how lightweight YOLO models can effectively balance performance and efficiency. The results demonstrate adaptability across both controlled and real-world conditions, establishing these models as strong candidates for real-time, resource-constrained emotion-aware AI applications.
- Abstract(参考訳): 表情認識は、特に制約のない現実の環境では、依然として困難な課題である。
本研究では,最新のYOLOシリーズのナノバリアントであるYOLOv11nとYOLOv12nの2つの軽量モデルの性能について,FERの統一検出・分類フレームワークを用いて検討した。
2つのベンチマーク分類データセットであるFER2013とKDEFはオブジェクト検出形式に変換され、モデル性能はmAP 0.5、精度、リコール、混乱行列を用いて評価される。
その結果, YOLOv12nは, mAP 0.5 95.6 のクリーン KDEF データセット上で最高の総合性能を示し, mAP 63.8 で YOLOv11n を FER2013 データセットで上回った。
これとは対照的に、YOLOv11nはFER2013上で65.2の精度を示し、ノイズの多い実世界の条件下での偽陽性の減少と信頼性の向上を示している。
FER2013では、どちらのモデルも視覚的に類似した表現の間により混乱を示し、よりクリーンなKDEFデータセットではより明確なクラス分離が観察される。
これらの結果は感度と精度のトレードオフを浮き彫りにして、軽量なYOLOモデルがパフォーマンスと効率を効果的にバランスできることを示す。
その結果、制御された状況と実世界の状況の両方に適応性を示し、これらのモデルをリアルタイムでリソースに制約のある感情認識AIアプリケーションのための強力な候補として確立した。
関連論文リスト
- Vision-Based Driver Drowsiness Monitoring: Comparative Analysis of YOLOv5-v11 Models [0.0]
ドライバーの眠気は道路事故の重要な要因であり、毎年数千人の死者と負傷の原因となっている。
本稿では,コンピュータビジョンに基づくYOLOアルゴリズムに着目し,リアルタイムで非侵襲的な眠気検出手法の総合評価を行う。
論文 参考訳(メタデータ) (2025-09-22T08:30:02Z) - RoHOI: Robustness Benchmark for Human-Object Interaction Detection [84.78366452133514]
ヒューマン・オブジェクト・インタラクション(HOI)検出は、コンテキスト認識支援を可能にするロボット・ヒューマン・アシストに不可欠である。
HOI検出のための最初のベンチマークを導入し、様々な課題下でモデルのレジリエンスを評価する。
我々のベンチマークであるRoHOIは、HICO-DETとV-COCOデータセットに基づく20の汚職タイプと、新しいロバストネスにフォーカスしたメトリクスを含んでいる。
論文 参考訳(メタデータ) (2025-07-12T01:58:04Z) - YOLOv13: Real-Time Object Detection with Hypergraph-Enhanced Adaptive Visual Perception [58.06752127687312]
高精度で軽量な物体検出器YOLOv13を提案する。
ハイパーグラフに基づく適応相関強化(HyperACE)機構を提案する。
また,FullPAD(Full-Pipeline Aggregation-and-Distribution)パラダイムを提案する。
論文 参考訳(メタデータ) (2025-06-21T15:15:03Z) - RF-DETR Object Detection vs YOLOv12 : A Study of Transformer-based and CNN-based Architectures for Single-Class and Multi-Class Greenfruit Detection in Complex Orchard Environments Under Label Ambiguity [0.8488322025656239]
本研究では,RF-DETRオブジェクト検出ベースモデルとYOLOv12オブジェクト検出モデル構成の詳細な比較を行う。
単一クラス (greenfruit) とマルチクラス (occluded and non-ococuded greenfruits) アノテーションを備えたカスタムデータセットが開発された。
DINOv2のバックボーンと変形可能なアテンションを利用するRF-DETRモデルは、グローバルなコンテキストモデリングにおいて優れている。
YOLOv12はCNNベースの注意をローカル特徴抽出の強化に利用し、計算効率とエッジデプロイメントに最適化した。
論文 参考訳(メタデータ) (2025-04-17T17:08:11Z) - YOLO Evolution: A Comprehensive Benchmark and Architectural Review of YOLOv12, YOLO11, and Their Previous Versions [0.0]
本研究は, YOLOv3から最新のYOLOv12への包括的実験評価である。
考慮すべき課題は、さまざまなオブジェクトサイズ、多様なアスペクト比、単一クラスの小さなオブジェクトである。
分析では各YOLOバージョンの特徴的長所と短所を強調した。
論文 参考訳(メタデータ) (2024-10-31T20:45:00Z) - Fluid: Scaling Autoregressive Text-to-image Generative Models with Continuous Tokens [53.99177152562075]
視覚における自己回帰モデルのスケールアップは、大きな言語モデルほど有益でないことが証明されている。
モデルが離散トークンを使用するか、連続トークンを使用するか、BERTやGPTのようなトランスフォーマーアーキテクチャを用いてランダムまたは固定順序でトークンを生成するか、という2つの重要な要素に焦点を当てる。
その結果,すべてのモデルが検証損失の点で効果的にスケールしているのに対して,評価性能はFID,GenEvalスコア,視覚的品質などによって異なる傾向を呈することがわかった。
論文 参考訳(メタデータ) (2024-10-17T17:59:59Z) - Fall Detection for Industrial Setups Using YOLOv8 Variants [0.0]
25.9百万のパラメータと79.1のGFLOPからなるYOLOv8mモデルでは、計算効率と検出性能のバランスが良好であった。
YOLOv8l と YOLOv8x モデルでは精度とリコールが向上したが、その高い計算要求とモデルサイズによりリソース制約のある環境には適さない。
論文 参考訳(メタデータ) (2024-08-08T17:24:54Z) - YOLOv10: Real-Time End-to-End Object Detection [68.28699631793967]
リアルタイムオブジェクト検出の分野では,YOLOが主流のパラダイムとして浮上している。
非最大抑圧(NMS)による処理後ハマーによるYOLOのエンドツーエンドデプロイメントへの依存。
YOLOの総合的効率-精度駆動型モデル設計戦略を紹介する。
論文 参考訳(メタデータ) (2024-05-23T11:44:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。