論文の概要: Reliable and Reproducible Demographic Inference for Fairness in Face Analysis
- arxiv url: http://arxiv.org/abs/2510.20482v1
- Date: Thu, 23 Oct 2025 12:22:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:17.848109
- Title: Reliable and Reproducible Demographic Inference for Fairness in Face Analysis
- Title(参考訳): 顔分析における公正性の信頼性と再現性
- Authors: Alexandre Fournier-Montgieux, Hervé Le Borgne, Adrian Popescu, Bertrand Luvison,
- Abstract要約: 本稿では、従来のエンドツーエンドトレーニングをモジュラートランスファー学習アプローチで置き換える、完全に再現可能なDAIパイプラインを提案する。
このパイプラインは、正確性、公正性、そしてアイデンティティ内整合性によって定義される、新たに導入された堅牢性の概念の3つの次元にわたって監査する。
以上の結果から,提案手法は特に民族性において,強い基準線を上回り,その特性はより困難であることが示唆された。
- 参考スコア(独自算出の注目度): 63.46525489354455
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Fairness evaluation in face analysis systems (FAS) typically depends on automatic demographic attribute inference (DAI), which itself relies on predefined demographic segmentation. However, the validity of fairness auditing hinges on the reliability of the DAI process. We begin by providing a theoretical motivation for this dependency, showing that improved DAI reliability leads to less biased and lower-variance estimates of FAS fairness. To address this, we propose a fully reproducible DAI pipeline that replaces conventional end-to-end training with a modular transfer learning approach. Our design integrates pretrained face recognition encoders with non-linear classification heads. We audit this pipeline across three dimensions: accuracy, fairness, and a newly introduced notion of robustness, defined via intra-identity consistency. The proposed robustness metric is applicable to any demographic segmentation scheme. We benchmark the pipeline on gender and ethnicity inference across multiple datasets and training setups. Our results show that the proposed method outperforms strong baselines, particularly on ethnicity, which is the more challenging attribute. To promote transparency and reproducibility, we will publicly release the training dataset metadata, full codebase, pretrained models, and evaluation toolkit. This work contributes a reliable foundation for demographic inference in fairness auditing.
- Abstract(参考訳): 顔分析システム(FAS)の公平性評価は、通常、事前に定義された人口統計区分に依存している自動人口属性推定(DAI)に依存する。
しかし、公正監査の妥当性は、DAIプロセスの信頼性に左右される。
まず、この依存に対する理論的動機を提供することから、DAI信頼性の向上がFAS公正性のバイアスが少なく、分散度の低い推定に繋がることを示す。
そこで本研究では,従来のエンドツーエンドトレーニングをモジュール型トランスファー学習アプローチに置き換える,完全再現可能なDAIパイプラインを提案する。
我々の設計では、事前訓練された顔認識エンコーダと非線形分類ヘッドを統合している。
このパイプラインは、正確性、公正性、そしてアイデンティティ内整合性によって定義される、新たに導入された堅牢性の概念の3つの次元にわたって監査する。
提案したロバスト性指標は,任意の階層的セグメンテーションスキームに適用可能である。
複数のデータセットとトレーニング設定にまたがって、性別と民族の推測に関するパイプラインをベンチマークします。
以上の結果から,提案手法は特に民族性において,強い基準線を上回り,その特性はより困難であることが示唆された。
透明性と再現性を促進するため、トレーニングデータセットメタデータ、完全なコードベース、事前トレーニングされたモデル、評価ツールキットを公開します。
この研究は、公正監査における人口統計学的推測の信頼性の基礎となる。
関連論文リスト
- Fair Deepfake Detectors Can Generalize [51.21167546843708]
共同設立者(データ分散とモデルキャパシティ)の制御により,公正な介入による一般化が向上することを示す。
この知見を応用して, 逆正当性重み付けとサブグループワイド特徴正規化を併用し, 新たなアライメント・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・インセンティブ・インターベンション・インベンション・インテクション(DAID)を提案する。
DAIDは、いくつかの最先端技術と比較して、公平性と一般化の両方において一貫して優れた性能を達成する
論文 参考訳(メタデータ) (2025-07-03T14:10:02Z) - Balancing Tails when Comparing Distributions: Comprehensive Equity Index (CEI) with Application to Bias Evaluation in Operational Face Biometrics [47.762333925222926]
Comprehensive Equity Index (CEI)は、顔認識システムにおける人口統計バイアスを検出するために設計された新しい指標である。
実験の結果,CEIは従来手法が不足していたニュアンスバイアスを検出する能力に優れていたことが確認された。
CEIは、運用公正性評価のための堅牢で機密性の高いツールを提供する。
論文 参考訳(メタデータ) (2025-06-12T10:43:31Z) - Mitigating Bias in Facial Recognition Systems: Centroid Fairness Loss Optimization [9.537960917804993]
公正なAIシステムの社会的需要は、新しい公正性基準を満たす予測モデルを開発する研究コミュニティに圧力を与えている。
特に、特定の人口セグメントにまたがる特定の顔認識(FR)システムによる誤差の変動は、後者の展開を損なう。
本稿では,Centroid-based scores に作用する回帰損失を最適化することにより,事前学習されたFRモデルの公平性を改善するための新しいポストプロセッシング手法を提案する。
論文 参考訳(メタデータ) (2025-04-27T22:17:44Z) - Learning Fairer Representations with FairVIC [1.4018975578160686]
自動意思決定システムにおけるバイアスの緩和は、公平さとデータセット固有のバイアスのニュアンスな定義のために重要な課題である。
学習中の損失関数に分散項、不変項、共分散項を統合することにより、ニューラルネットワークの公平性を高める革新的なアプローチであるFairVICを導入する。
ベンチマークデータセットにおけるFairVICを,グループと個人の両方の公正性を考慮して比較して評価し,精度と公正性のトレードオフに関するアブレーション研究を行う。
論文 参考訳(メタデータ) (2024-04-28T10:10:21Z) - Stabilizing and Improving Federated Learning with Non-IID Data and
Client Dropout [15.569507252445144]
ラベル分布スキューによるデータヘテロジェニーティは、フェデレート学習におけるモデル性能を制限する重要な障害であることが示されている。
クロスエントロピー損失を計算するための事前校正ソフトマックス関数を導入することで、シンプルで効果的なフレームワークを提案する。
非IIDデータとクライアントドロップアウトの存在下で、既存のベースラインよりも優れたモデル性能を示す。
論文 参考訳(メタデータ) (2023-03-11T05:17:59Z) - Uncertainty Estimation by Fisher Information-based Evidential Deep
Learning [61.94125052118442]
不確実性推定は、ディープラーニングを実用アプリケーションで信頼できるものにする鍵となる要素である。
漁業情報に基づくエビデンシャルディープラーニング(mathcalI$-EDL)を提案する。
特に,各サンプルが有する証拠の情報量を測定するためにFisher Information Matrix (FIM)を導入し,目的的損失項を動的に重み付けし,不確実なクラスの表現学習に集中させる。
論文 参考訳(メタデータ) (2023-03-03T16:12:59Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。