論文の概要: Toward Fairer Face Recognition Datasets
- arxiv url: http://arxiv.org/abs/2406.16592v3
- Date: Wed, 23 Oct 2024 06:45:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-24 09:54:54.716469
- Title: Toward Fairer Face Recognition Datasets
- Title(参考訳): より公平な顔認識データセットを目指して
- Authors: Alexandre Fournier-Montgieux, Michael Soumm, Adrian Popescu, Bertrand Luvison, Hervé Le Borgne,
- Abstract要約: 顔認識と検証は、ディープ表現の導入によってパフォーマンスが向上したコンピュータビジョンタスクである。
実際のトレーニングデータセットにおける顔データとバイアスのセンシティブな性格による倫理的、法的、技術的な課題は、彼らの開発を妨げる。
生成されたトレーニングデータセットに階層属性のバランス機構を導入することにより、公平性を促進する。
- 参考スコア(独自算出の注目度): 69.04239222633795
- License:
- Abstract: Face recognition and verification are two computer vision tasks whose performance has progressed with the introduction of deep representations. However, ethical, legal, and technical challenges due to the sensitive character of face data and biases in real training datasets hinder their development. Generative AI addresses privacy by creating fictitious identities, but fairness problems persist. We promote fairness by introducing a demographic attributes balancing mechanism in generated training datasets. We experiment with an existing real dataset, three generated training datasets, and the balanced versions of a diffusion-based dataset. We propose a comprehensive evaluation that considers accuracy and fairness equally and includes a rigorous regression-based statistical analysis of attributes. The analysis shows that balancing reduces demographic unfairness. Also, a performance gap persists despite generation becoming more accurate with time. The proposed balancing method and comprehensive verification evaluation promote fairer and transparent face recognition and verification.
- Abstract(参考訳): 顔認識と検証は、2つのコンピュータビジョンタスクであり、深層表現の導入によって性能が向上した。
しかし、実際のトレーニングデータセットにおける顔データやバイアスの繊細な特徴による倫理的、法的、技術的な課題は、彼らの開発を妨げる。
生成AIは、架空のアイデンティティを作成することによってプライバシに対処するが、公平性の問題は継続する。
生成されたトレーニングデータセットに階層属性のバランス機構を導入することにより、公平性を促進する。
既存の実データセット、生成された3つのトレーニングデータセット、拡散ベースデータセットのバランスの取れたバージョンを実験する。
精度と公平性を等しく考慮し、厳密な回帰に基づく属性の統計的分析を含む包括的評価を提案する。
この分析は、バランスが人口的不公平を減少させることを示している。
また、世代が時間とともに正確になるにもかかわらず、パフォーマンスギャップは持続する。
提案手法と包括的検証評価は、より公平で透明な顔認識と検証を促進する。
関連論文リスト
- Targeted Learning for Data Fairness [52.59573714151884]
データ生成プロセス自体の公平性を評価することにより、公平性推論を拡張する。
我々は、人口統計学的平等、平等機会、条件付き相互情報から推定する。
提案手法を検証するため,いくつかのシミュレーションを行い,実データに適用する。
論文 参考訳(メタデータ) (2025-02-06T18:51:28Z) - Fairer Analysis and Demographically Balanced Face Generation for Fairer Face Verification [69.04239222633795]
顔認識と検証は、深層表現の導入によって性能が向上した2つのコンピュータビジョンタスクである。
現実のトレーニングデータセットにおける顔データの繊細な性質とバイアスによる倫理的、法的、技術的な課題は、彼らの開発を妨げる。
公平性を向上する新しい制御された生成パイプラインを導入する。
論文 参考訳(メタデータ) (2024-12-04T14:30:19Z) - Balancing the Scales: Enhancing Fairness in Facial Expression Recognition with Latent Alignment [5.784550537553534]
このワークル平均は、表情認識システムにおけるバイアスを軽減するために、潜在空間に基づく表現学習を行う。
また、ディープラーニングモデルの公平性と全体的な正確性も向上する。
論文 参考訳(メタデータ) (2024-10-25T10:03:10Z) - The Impact of Balancing Real and Synthetic Data on Accuracy and Fairness in Face Recognition [10.849598219674132]
人口統計学的にバランスのとれた認証データと合成データとが、顔認識モデルの精度と公正性に与える影響について検討した。
本研究は,<i>I</i> と<i>I</i>,<i>I</i>,<i>I</i>,<i>I</i>,<i>I</i>,<i>I</i>,<i>I</i>,<i>I</i>,<i>I</i>,<i>I</i>,<i>I</i>,<i>I</i>,<i>I</i>,<i>I</i>,<i>I</i>,<i>I</i>,<i>I</i>,<i>E</i>,<i>,</i>,<i>,<i>,<i>I</i>,</i>,<i>,<i>,<i>,<i>,
論文 参考訳(メタデータ) (2024-09-04T16:50:48Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - What Should Be Balanced in a "Balanced" Face Recognition Dataset? [8.820019122897154]
顔認識アルゴリズムの精度を評価するために、様々な顔画像データセットが「フェア」または「バランス」として提案されている。
評価データセットにおけるアイデンティティの数と画像が、1対1の顔マッチング精度の要因ではないことに注意する必要がある。
本稿では,本論文で言及した因子とバランスの取れたクロスデデマトグラフィー評価データセットの作成を容易にするバイアス対応ツールキットを提案する。
論文 参考訳(メタデータ) (2023-04-17T22:02:03Z) - Attention-based Adversarial Appearance Learning of Augmented Pedestrians [49.25430012369125]
本稿では,歩行者認識タスクのための現実的なデータを合成する手法を提案する。
本手法は, 対向的損失によって駆動される注意機構を用いて, ドメインの相違を学習する。
提案手法はこのような不一致に対して頑健であり,視覚的リアリズムと意味的整合性の両方を明らかにする。
論文 参考訳(メタデータ) (2021-07-06T15:27:00Z) - Representative & Fair Synthetic Data [68.8204255655161]
公平性制約を自己監督学習プロセスに組み込むためのフレームワークを提示する。
私たちはuci成人国勢調査データセットの代表者および公正版を作成します。
我々は、代表的かつ公正な合成データを将来有望なビルディングブロックとみなし、歴史的世界ではなく、私たちが生きようとしている世界についてアルゴリズムを教える。
論文 参考訳(メタデータ) (2021-04-07T09:19:46Z) - Towards Accuracy-Fairness Paradox: Adversarial Example-based Data
Augmentation for Visual Debiasing [15.689539491203373]
機械学習の公平性は、ターゲットタスクに対処する際に、特定の保護された、または機密性の高いグループに対するバイアスを懸念する。
本稿では,画像分類タスクの文脈におけるバイアス問題について検討する。
論文 参考訳(メタデータ) (2020-07-27T15:17:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。