論文の概要: Fairness on Synthetic Visual and Thermal Mask Images
- arxiv url: http://arxiv.org/abs/2209.08762v1
- Date: Mon, 19 Sep 2022 05:04:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 18:30:11.703149
- Title: Fairness on Synthetic Visual and Thermal Mask Images
- Title(参考訳): 合成視覚・熱マスク画像の公平性
- Authors: Kenneth Lai, Vlad Shmerko, Svetlana Yanushkevich
- Abstract要約: 本研究では,視覚・熱画像の性能と公正性について検討し,マスク付き合成画像の評価を拡大する。
本研究では,S talkingFace と Thermal-Mask のデータセットを用いて,実画像の公平性を評価し,合成画像にどのように同じプロセスを適用するかを示す。
- 参考スコア(独自算出の注目度): 1.4524096882720263
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we study performance and fairness on visual and thermal images
and expand the assessment to masked synthetic images. Using the SpeakingFace
and Thermal-Mask dataset, we propose a process to assess fairness on real
images and show how the same process can be applied to synthetic images. The
resulting process shows a demographic parity difference of 1.59 for random
guessing and increases to 5.0 when the recognition performance increases to a
precision and recall rate of 99.99\%. We indicate that inherently biased
datasets can deeply impact the fairness of any biometric system. A primary
cause of a biased dataset is the class imbalance due to the data collection
process. To address imbalanced datasets, the classes with fewer samples can be
augmented with synthetic images to generate a more balanced dataset resulting
in less bias when training a machine learning system. For biometric-enabled
systems, fairness is of critical importance, while the related concept of
Equity, Diversity, and Inclusion (EDI) is well suited for the generalization of
fairness in biometrics, in this paper, we focus on the 3 most common
demographic groups age, gender, and ethnicity.
- Abstract(参考訳): 本稿では,視覚画像と熱画像の性能と公平性を調査し,その評価をマスキング合成画像に拡張する。
サーマルマスクデータセットとスポーキングフェイスを用いて,実画像の公平性を評価し,同じプロセスを合成画像に適用できることを示す。
その結果、ランダムな推測のための人口差は1.59であり、認識性能が99.99\%の精度とリコール率に向上すると5.0に増加する。
偏りのあるデータセットは、あらゆる生体認証システムの公平性に深く影響する可能性がある。
偏りのあるデータセットの主な原因は、データ収集プロセスによるクラスの不均衡である。
不均衡なデータセットに対処するために、サンプルが少ないクラスを合成画像で拡張して、よりバランスの取れたデータセットを生成することで、マシンラーニングシステムのトレーニングにおいてバイアスが軽減される。
バイオメトリック対応システムでは、フェアネスが重要であり、関連する概念であるEquity, Diversity, and Inclusion(EDI)は、バイオメトリックスにおけるフェアネスの一般化によく適しているが、本稿では、最も一般的な3つの集団、年齢、性別、民族性に焦点を当てる。
関連論文リスト
- The Impact of Balancing Real and Synthetic Data on Accuracy and Fairness in Face Recognition [10.849598219674132]
人口統計学的にバランスのとれた認証データと合成データとが、顔認識モデルの精度と公正性に与える影響について検討した。
本研究は,<i>I</i> と<i>I</i>,<i>I</i>,<i>I</i>,<i>I</i>,<i>I</i>,<i>I</i>,<i>I</i>,<i>I</i>,<i>I</i>,<i>I</i>,<i>I</i>,<i>I</i>,<i>I</i>,<i>I</i>,<i>I</i>,<i>I</i>,<i>I</i>,<i>E</i>,<i>,</i>,<i>,<i>,<i>I</i>,</i>,<i>,<i>,<i>,<i>,
論文 参考訳(メタデータ) (2024-09-04T16:50:48Z) - SDFD: Building a Versatile Synthetic Face Image Dataset with Diverse Attributes [14.966767182001755]
顔の多様性の幅広いスペクトルをキャプチャする合成顔画像データセットを生成する手法を提案する。
具体的には、我々のアプローチは人口統計学とバイオメトリックスを統合するだけでなく、メイクアップ、ヘアスタイル、アクセサリーといった非永続的な特徴も統合しています。
これらのプロンプトは、高品質なリアル画像の包括的なデータセットを生成する際に、最先端のテキスト・ツー・イメージモデルを導く。
論文 参考訳(メタデータ) (2024-04-26T08:51:31Z) - Deep Domain Adaptation: A Sim2Real Neural Approach for Improving Eye-Tracking Systems [80.62854148838359]
眼球画像のセグメンテーションは、最終視線推定に大きな影響を及ぼす眼球追跡の重要なステップである。
対象視線画像と合成訓練データとの重なり合いを測定するために,次元還元法を用いている。
提案手法は,シミュレーションと実世界のデータサンプルの相違に対処する際の頑健で,性能が向上する。
論文 参考訳(メタデータ) (2024-03-23T22:32:06Z) - Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - What Should Be Balanced in a "Balanced" Face Recognition Dataset? [8.820019122897154]
顔認識アルゴリズムの精度を評価するために、様々な顔画像データセットが「フェア」または「バランス」として提案されている。
評価データセットにおけるアイデンティティの数と画像が、1対1の顔マッチング精度の要因ではないことに注意する必要がある。
本稿では,本論文で言及した因子とバランスの取れたクロスデデマトグラフィー評価データセットの作成を容易にするバイアス対応ツールキットを提案する。
論文 参考訳(メタデータ) (2023-04-17T22:02:03Z) - A Deep Dive into Dataset Imbalance and Bias in Face Identification [49.210042420757894]
メディアの描写は、自動顔認識システムにおけるバイアスの主な原因として、しばしば不均衡を浮き彫りにする。
FRにおけるデータ不均衡に関するこれまでの研究は、顔認証の設定にのみ焦点をあててきた。
この研究は、顔の識別における各種類の不均衡の影響を徹底的に調査し、この設定におけるバイアスに影響を与える他の要因について議論する。
論文 参考訳(メタデータ) (2022-03-15T20:23:13Z) - Generation of Non-Deterministic Synthetic Face Datasets Guided by
Identity Priors [19.095368725147367]
本稿では、StyleGANの構造化された潜在空間を利用して、マット付き顔画像を生成する非決定論的手法を提案する。
25,919個の合成IDを含む77,034個のサンプルからなる合成顔画像(SymFace)のデータセットを作成する。
論文 参考訳(メタデータ) (2021-12-07T11:08:47Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。