論文の概要: Exploring Disparity-Accuracy Trade-offs in Face Recognition Systems: The Role of Datasets, Architectures, and Loss Functions
- arxiv url: http://arxiv.org/abs/2503.14138v1
- Date: Tue, 18 Mar 2025 11:04:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-19 14:18:31.101725
- Title: Exploring Disparity-Accuracy Trade-offs in Face Recognition Systems: The Role of Datasets, Architectures, and Loss Functions
- Title(参考訳): 顔認識システムにおける不一致精度トレードオフの探索:データセット,アーキテクチャ,損失関数の役割
- Authors: Siddharth D Jaiswal, Sagnik Basu, Sandipan Sikdar, Animesh Mukherjee,
- Abstract要約: 顔認識システム(FRS)は、識別認証と顔属性分析のために世界中に展開されている。
これらのモデルの性能は、モデルアーキテクチャ、最適化/ロス機能、データセット間の複雑な相互依存によって決定される。
本研究では,ジェンダー予測の課題に対する3つのFRSの詳細な分析を行う。
以上の結果から,これら3つのコンポーネントはいずれも個人であり,精度と相違性の両方に複合的な影響があることが示唆された。
- 参考スコア(独自算出の注目度): 6.966858605501567
- License:
- Abstract: Automated Face Recognition Systems (FRSs), developed using deep learning models, are deployed worldwide for identity verification and facial attribute analysis. The performance of these models is determined by a complex interdependence among the model architecture, optimization/loss function and datasets. Although FRSs have surpassed human-level accuracy, they continue to be disparate against certain demographics. Due to the ubiquity of applications, it is extremely important to understand the impact of the three components -- model architecture, loss function and face image dataset on the accuracy-disparity trade-off to design better, unbiased platforms. In this work, we perform an in-depth analysis of three FRSs for the task of gender prediction, with various architectural modifications resulting in ten deep-learning models coupled with four loss functions and benchmark them on seven face datasets across 266 evaluation configurations. Our results show that all three components have an individual as well as a combined impact on both accuracy and disparity. We identify that datasets have an inherent property that causes them to perform similarly across models, independent of the choice of loss functions. Moreover, the choice of dataset determines the model's perceived bias -- the same model reports bias in opposite directions for three gender-balanced datasets of ``in-the-wild'' face images of popular individuals. Studying the facial embeddings shows that the models are unable to generalize a uniform definition of what constitutes a ``female face'' as opposed to a ``male face'', due to dataset diversity. We provide recommendations to model developers on using our study as a blueprint for model development and subsequent deployment.
- Abstract(参考訳): ディープラーニングモデルを用いて開発された自動顔認識システム(FRS)は、識別認証と顔認識のために世界中に展開されている。
これらのモデルの性能は、モデルアーキテクチャ、最適化/ロス機能、データセット間の複雑な相互依存によって決定される。
FRSは人間レベルの精度を上回っているが、一部の人口層とは相容れないままである。
アプリケーションの多様さのため、3つのコンポーネント – モデルアーキテクチャ、損失関数、顔画像データセット – が、より良い、バイアスのないプラットフォームを設計するための正確性と格差のトレードオフに与える影響を理解することが極めて重要です。
本研究では,性別予測の課題に対する3つのFRSの詳細な分析を行い,様々なアーキテクチャ変更を行い,10のディープラーニングモデルと4つの損失関数を組み合わせ,それらを266の評価構成で7つの顔データセット上でベンチマークする。
以上の結果から,これら3つのコンポーネントはいずれも個人であり,精度と相違性の両方に複合的な影響があることが示唆された。
データセットは、損失関数の選択によらず、モデル間でも同様に機能する固有の特性を持つ。
さらに、データセットの選択はモデルの知覚バイアスを判断する -- 同じモデルでは、人気のある人物の‘in-the-wild’の顔画像の男女バランスの取れた3つのデータセットに対して、逆方向のバイアスを報告している。
顔埋め込みの研究は、データセットの多様性のため、モデルが「女性顔」を構成するものの統一的な定義を「男性顔」ではなく「女性顔」として一般化できないことを示している。
私たちは、モデル開発とその後のデプロイメントの青写真として、私たちの研究を使用することについて、モデル開発者に対して推奨します。
関連論文リスト
- Faces of Fairness: Examining Bias in Facial Expression Recognition Datasets and Models [2.8893654860442872]
本研究では、FERデータセットとモデルにおけるバイアス源について検討する。
AffectNet、ExpW、Fer2013、RAF-DBの4つの共通のFERデータセットが分析されている。
本研究は、最先端畳み込みニューラルネットワーク(CNN)モデルを含む6つの深層モデルのバイアスと公平性を評価する。
論文 参考訳(メタデータ) (2025-02-16T09:23:16Z) - Can foundation models actively gather information in interactive environments to test hypotheses? [56.651636971591536]
隠れた報酬関数に影響を与える要因をモデルが決定しなければならない枠組みを導入する。
自己スループットや推論時間の増加といったアプローチが情報収集効率を向上させるかどうかを検討する。
論文 参考訳(メタデータ) (2024-12-09T12:27:21Z) - Towards Inclusive Face Recognition Through Synthetic Ethnicity Alteration [11.451395489475647]
我々は、データセットの多様性を高めるために合成顔画像生成法を用いて、民族的変化と肌のトーン修正を探索する。
まず,アジア,黒人,インディアンの3民族を表わすバランスのとれた顔画像データセットを構築し,詳細な分析を行う。
次に、既存のGAN(Generative Adversarial Network-based Image-to-image translation)と多様体学習モデルを用いて、それぞれの民族性を変化させる。
論文 参考訳(メタデータ) (2024-05-02T13:31:09Z) - Leveraging Synthetic Data for Generalizable and Fair Facial Action Unit Detection [9.404202619102943]
本稿では,合成データとマルチソースドメイン適応(MSDA)を用いて,ラベル付きデータの不足や対象の多様性の問題に対処することを提案する。
具体的には,合成表情再ターゲティングにより多様なデータセットを生成することを提案する。
ジェンダーフェアネスをさらに向上させるために、PM2は実際のデータの特徴と女性と男性の合成画像とを一致させる。
論文 参考訳(メタデータ) (2024-03-15T23:50:18Z) - Towards Personalized Federated Learning via Heterogeneous Model
Reassembly [84.44268421053043]
pFedHRは、異種モデルの再組み立てを利用して、パーソナライズされたフェデレーション学習を実現するフレームワークである。
pFedHRは、動的に多様なパーソナライズされたモデルを自動生成する。
論文 参考訳(メタデータ) (2023-08-16T19:36:01Z) - Unifying Flow, Stereo and Depth Estimation [121.54066319299261]
本稿では3つの動作と3次元知覚タスクのための統一的な定式化とモデルを提案する。
これら3つのタスクを、統一された高密度対応マッチング問題として定式化する。
我々のモデルは、モデルアーキテクチャとパラメータがタスク間で共有されているため、自然にクロスタスク転送を可能にします。
論文 参考訳(メタデータ) (2022-11-10T18:59:54Z) - Rethinking Bias Mitigation: Fairer Architectures Make for Fairer Face
Recognition [107.58227666024791]
顔認識システムは、法執行を含む安全クリティカルなアプリケーションに広くデプロイされている。
彼らは、性別や人種など、様々な社会的デデノグラフィー次元に偏見を示す。
バイアス軽減に関するこれまでの研究は、主にトレーニングデータの事前処理に重点を置いていた。
論文 参考訳(メタデータ) (2022-10-18T15:46:05Z) - Towards Explaining Demographic Bias through the Eyes of Face Recognition
Models [6.889667606945215]
データとアルゴリズムの両方に固有のバイアスは、機械学習(ML)ベースの意思決定システムの公平性を最適以下にする。
我々は、異なる人口集団を処理する際に、顔認識モデルの振る舞いの違いを分析する一連の説明可能性ツールを提供することを目標としている。
我々は、アクティベーションマップに基づく高次統計情報を活用して、FRモデルの行動差を特定の顔領域に関連付ける説明可能性ツールを構築する。
論文 参考訳(メタデータ) (2022-08-29T07:23:06Z) - Assessing Demographic Bias Transfer from Dataset to Model: A Case Study
in Facial Expression Recognition [1.5340540198612824]
2つのメトリクスはデータセットの表現バイアスとステレオタイプバイアスに焦点をあて、もう1つはトレーニングされたモデルの残差バイアスに焦点を当てている。
本稿では、一般的なAffectnetデータセットに基づくFER問題に適用することで、メトリクスの有用性を示す。
論文 参考訳(メタデータ) (2022-05-20T09:40:42Z) - Taxonomizing local versus global structure in neural network loss
landscapes [60.206524503782006]
ロスランドスケープが世界規模で良好に接続されている場合, 最適なテスト精度が得られることを示す。
また、モデルが小さい場合や、品質の低いデータに訓練された場合、世界規模で接続の不十分なランドスケープが生じる可能性があることも示しています。
論文 参考訳(メタデータ) (2021-07-23T13:37:14Z) - Dynamic Federated Learning [57.14673504239551]
フェデレートラーニング(Federated Learning)は、マルチエージェント環境における集中的なコーディネーション戦略の包括的用語として登場した。
我々は、各イテレーションにおいて、利用可能なエージェントのランダムなサブセットがそのデータに基づいてローカル更新を実行する、フェデレートされた学習モデルを考える。
集約最適化問題に対する真の最小化器上の非定常ランダムウォークモデルの下で、アーキテクチャの性能は、各エージェントにおけるデータ変動率、各エージェントにおけるモデル変動率、アルゴリズムの学習率に逆比例する追跡項の3つの要因によって決定されることを示す。
論文 参考訳(メタデータ) (2020-02-20T15:00:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。