論文の概要: Exploring the Feasibility of Deep Learning Techniques for Accurate Gender Classification from Eye Images
- arxiv url: http://arxiv.org/abs/2508.00135v2
- Date: Thu, 07 Aug 2025 11:52:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-08 14:01:13.989968
- Title: Exploring the Feasibility of Deep Learning Techniques for Accurate Gender Classification from Eye Images
- Title(参考訳): 眼球画像からの正確なジェンダー分類のための深層学習の可能性を探る
- Authors: Basna Mohammed Salih Hasan, Ramadhan J. Mstafa,
- Abstract要約: 眼周囲領域は、まぶた、まぶた、それらの間の領域を含む、目を取り巻く領域を指す。
それは、性別分類のための重要な特徴を抽出するために使用できる貴重な視覚的手がかりを含んでいる。
本稿では,色画像データベースを用いた高度な畳み込みニューラルネットワーク(CNN)モデルを提案する。
- 参考スコア(独自算出の注目度): 1.6114012813668932
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gender classification has emerged as a crucial aspect in various fields, including security, human-machine interaction, surveillance, and advertising. Nonetheless, the accuracy of this classification can be influenced by factors such as cosmetics and disguise. Consequently, our study is dedicated to addressing this concern by concentrating on gender classification using color images of the periocular region. The periocular region refers to the area surrounding the eye, including the eyelids, eyebrows, and the region between them. It contains valuable visual cues that can be used to extract key features for gender classification. This paper introduces a sophisticated Convolutional Neural Network (CNN) model that utilizes color image databases to evaluate the effectiveness of the periocular region for gender classification. To validate the model's performance, we conducted tests on two eye datasets, namely CVBL and (Female and Male). The recommended architecture achieved an outstanding accuracy of 99% on the previously unused CVBL dataset while attaining a commendable accuracy of 96% with a small number of learnable parameters (7,235,089) on the (Female and Male) dataset. To ascertain the effectiveness of our proposed model for gender classification using the periocular region, we evaluated its performance through an extensive range of metrics and compared it with other state-of-the-art approaches. The results unequivocally demonstrate the efficacy of our model, thereby suggesting its potential for practical application in domains such as security and surveillance.
- Abstract(参考訳): ジェンダーの分類は、セキュリティ、人間と機械の相互作用、監視、広告など、様々な分野において重要な側面として現れてきた。
それでも、この分類の正確さは化粧品や変装などの要因に影響される可能性がある。
本研究は、近視領域の色画像を用いた性別分類に集中させることにより、この問題に対処することを目的としている。
眼周囲領域(かんりょうがく、英: periocular region)は、眼球体、眼窩、眼窩を含む眼球周囲領域を指す。
それは、性別分類のための重要な特徴を抽出するために使用できる貴重な視覚的手がかりを含んでいる。
本稿では,色画像データベースを用いた高度な畳み込みニューラルネットワーク(CNN)モデルを提案する。
モデルの性能を評価するため,CVBLと(Female and Male)の2つの眼球データセットを用いて実験を行った。
推奨アーキテクチャは、未使用のCVBLデータセットでは99%の精度を達成し、 (Female and Male)データセットでは、少数の学習可能なパラメータ (7,235,089) で、補正可能な精度は96%に達した。
近視領域を用いた性別分類モデルの有効性を確認するため、幅広い指標を用いて評価を行い、他の最先端手法と比較した。
この結果から,セキュリティや監視といった領域における実践的応用の可能性が示唆された。
関連論文リスト
- Deep Learning-Based Age Estimation and Gender Deep Learning-Based Age Estimation and Gender Classification for Targeted Advertisement [3.376269351435396]
本稿では, 顔画像から年齢と性別を同時分類する, 深層学習に基づく新しいアプローチを提案する。
両タスクに最適化された独自の畳み込みニューラルネットワーク(CNN)アーキテクチャを提案する。
実験の結果,性別分類の精度が向上し,95%が達成され,年齢推定に5.77年を要した平均絶対誤差が得られた。
論文 参考訳(メタデータ) (2025-07-24T16:41:26Z) - Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - Saliency-Based diversity and fairness Metric and FaceKeepOriginalAugment: A Novel Approach for Enhancing Fairness and Diversity [46.74201905814679]
我々は、地理、性別、ステレオタイプによるコンピュータビジョンモデルにおける様々な偏見を探索する、FaceKeepOriginalAugmentと呼ばれるKeepOriginalAugment法の拡張を導入する。
データ多様性と情報保存の微妙なバランスを維持することによって、当社のアプローチは、多様な正当性と非正当性の両方を活用するモデルに力を与える。
Flickr Faces HQ(FFHQ)、WIKI、IMDB、Labelled Faces in the Wild(LFW)、UTK Faces、Diverseデータセットなど、さまざまなデータセットのデータセットの多様性を定量化しています。
論文 参考訳(メタデータ) (2024-10-29T13:49:23Z) - FaceSaliencyAug: Mitigating Geographic, Gender and Stereotypical Biases via Saliency-Based Data Augmentation [46.74201905814679]
コンピュータビジョンモデルにおける性別バイアスに対処することを目的としたFaceSaliencyAugというアプローチを提案する。
Flickr Faces HQ(FFHQ)、WIKI、IMDB、Labelled Faces in the Wild(LFW)、UTK Faces、Diverseデータセットを含む5つのデータセットで、画像類似度スコア(ISS)を使用してデータセットの多様性を定量化する。
実験の結果,CNN と ViT の男女差の低減が明らかとなり,コンピュータビジョンモデルにおける公平性と傾きの促進に本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2024-10-17T22:36:52Z) - Deep Domain Adaptation: A Sim2Real Neural Approach for Improving Eye-Tracking Systems [80.62854148838359]
眼球画像のセグメンテーションは、最終視線推定に大きな影響を及ぼす眼球追跡の重要なステップである。
対象視線画像と合成訓練データとの重なり合いを測定するために,次元還元法を用いている。
提案手法は,シミュレーションと実世界のデータサンプルの相違に対処する際の頑健で,性能が向上する。
論文 参考訳(メタデータ) (2024-03-23T22:32:06Z) - Gender Biases in Automatic Evaluation Metrics for Image Captioning [87.15170977240643]
画像キャプションタスクのためのモデルに基づく評価指標において、性別バイアスの体系的研究を行う。
偏りのある世代と偏りのない世代を区別できないことを含む、これらの偏りのあるメトリクスを使用することによる負の結果を実証する。
人間の判断と相関を損なうことなく、測定バイアスを緩和する簡便で効果的な方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T04:27:40Z) - Learning Diversified Feature Representations for Facial Expression
Recognition in the Wild [97.14064057840089]
本稿では,CNN層が抽出した顔表情認識アーキテクチャの特徴を多様化する機構を提案する。
AffectNet,FER+,RAF-DBの3つの顔表情認識実験の結果,本手法の有効性が示された。
論文 参考訳(メタデータ) (2022-10-17T19:25:28Z) - Deep Collaborative Multi-Modal Learning for Unsupervised Kinship
Estimation [53.62256887837659]
キンシップ検証は、コンピュータビジョンにおける長年の研究課題である。
本稿では,顔特性に表される基礎情報を統合するために,新しい協調型多モーダル学習(DCML)を提案する。
我々のDCML法は、常に最先端のキンシップ検証法よりも優れている。
論文 参考訳(メタデータ) (2021-09-07T01:34:51Z) - Probing Fairness of Mobile Ocular Biometrics Methods Across Gender on
VISOB 2.0 Dataset [0.8594140167290097]
本研究は,男女間での認証・性別分類手法の公正性を検討することを目的とする。
実験結果から, 眼球を用いたモバイル・ユーザ・オーセンティケーションにおいて, 男女の同等の性能が示唆された。
深層学習に基づく性別分類モデルでは、男性は眼領域に基づく女性よりも有意に優れていた。
論文 参考訳(メタデータ) (2020-11-17T19:32:56Z) - Classifying Eye-Tracking Data Using Saliency Maps [8.524684315458245]
本稿では,視線追跡データの自動的,定量的分類のための視覚情報に基づく特徴抽出手法を提案する。
サリエンシの振幅、類似度、相違点を対応するアイフィクスマップと比較すると、視覚追跡データを識別するために識別的特徴を生成するために有効に活用される情報の余分な次元が得られる。
論文 参考訳(メタデータ) (2020-10-24T15:18:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。