論文の概要: Compressed Models Decompress Race Biases: What Quantized Models Forget
for Fair Face Recognition
- arxiv url: http://arxiv.org/abs/2308.11840v1
- Date: Wed, 23 Aug 2023 00:17:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-24 16:17:11.410957
- Title: Compressed Models Decompress Race Biases: What Quantized Models Forget
for Fair Face Recognition
- Title(参考訳): 圧縮モデルによるレースバイアスの圧縮:公正な顔認識のための量子モデル
- Authors: Pedro C. Neto, Eduarda Caldeira, Jaime S. Cardoso, Ana F. Sequeira
- Abstract要約: 本研究では,各民族サブグループにおける総合的パフォーマンスと人種的偏りについて検討する。
5つの異なるアーキテクチャと3つの異なるトレーニングデータセットをテストしました。
モデルは、異なる民族における顔認識モデルの性能を推定し比較するために収集された第4のデータセットで評価された。
- 参考スコア(独自算出の注目度): 3.017721041662511
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the ever-growing complexity of deep learning models for face
recognition, it becomes hard to deploy these systems in real life. Researchers
have two options: 1) use smaller models; 2) compress their current models.
Since the usage of smaller models might lead to concerning biases, compression
gains relevance. However, compressing might be also responsible for an increase
in the bias of the final model. We investigate the overall performance, the
performance on each ethnicity subgroup and the racial bias of a
State-of-the-Art quantization approach when used with synthetic and real data.
This analysis provides a few more details on potential benefits of performing
quantization with synthetic data, for instance, the reduction of biases on the
majority of test scenarios. We tested five distinct architectures and three
different training datasets. The models were evaluated on a fourth dataset
which was collected to infer and compare the performance of face recognition
models on different ethnicity.
- Abstract(参考訳): 顔認識のためのディープラーニングモデルがますます複雑化する中、これらのシステムを現実に展開することは困難になる。
研究者には2つの選択肢があります
1) より小さいモデルを使う。
2) 現在のモデルを圧縮する。
より小さなモデルを使用するとバイアスが発生するため、圧縮は関連性を得る。
しかし、圧縮は最終モデルのバイアスを増加させる原因でもあるかもしれない。
合成データおよび実データを用いて, 総合的パフォーマンス, 民族別サブグループにおけるパフォーマンス, 人種的バイアスについて検討した。
この分析は、例えばテストシナリオの大部分におけるバイアスの低減など、合成データで量子化を行う際の潜在的な利点について、さらに詳細を提供する。
5つの異なるアーキテクチャと3つのトレーニングデータセットをテストしました。
これらのモデルは4番目のデータセットで評価され、異なる民族における顔認識モデルの性能を推定し比較した。
関連論文リスト
- Will the Inclusion of Generated Data Amplify Bias Across Generations in Future Image Classification Models? [29.71939692883025]
画像分類タスクにおける生成データの影響について,特にバイアスに着目して検討する。
数百の実験がColorized MNIST、CIFAR-20/100、Hard ImageNetデータセットで実施されている。
本研究は, 実世界の応用において, 合成データの公平性に関する議論が進行中であることを示すものである。
論文 参考訳(メタデータ) (2024-10-14T05:07:06Z) - Massively Annotated Datasets for Assessment of Synthetic and Real Data in Face Recognition [0.2775636978045794]
実データと合成データを用いて学習したモデルの性能のドリフトについて検討する。
属性集合上の実データと合成データセットの差について検討する。
興味深いことに、我々は実際のサンプルが合成分布を説明するのに十分であるにもかかわらず、その逆はもはや真実ではないことを検証した。
論文 参考訳(メタデータ) (2024-04-23T17:10:49Z) - Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - Evaluation of Categorical Generative Models -- Bridging the Gap Between
Real and Synthetic Data [18.142397311464343]
生成モデルに対する適切な拡張性の評価手法を提案する。
我々は、より困難なモデリングタスクに対応する、ますます大きな確率空間を考える。
我々は, 合成生成モデルと最先端のカテゴリー生成モデルの両方について, 合成実験により評価方法を検証する。
論文 参考訳(メタデータ) (2022-10-28T21:05:25Z) - Rethinking Bias Mitigation: Fairer Architectures Make for Fairer Face
Recognition [107.58227666024791]
顔認識システムは、法執行を含む安全クリティカルなアプリケーションに広くデプロイされている。
彼らは、性別や人種など、様々な社会的デデノグラフィー次元に偏見を示す。
バイアス軽減に関するこれまでの研究は、主にトレーニングデータの事前処理に重点を置いていた。
論文 参考訳(メタデータ) (2022-10-18T15:46:05Z) - Synthetic Model Combination: An Instance-wise Approach to Unsupervised
Ensemble Learning [92.89846887298852]
ラベル付きデータのトレーニングセットから学ぶ機会のない、新しいテストデータに対する予測を検討する。
専門家モデルのセットと予測へのアクセスと、トレーニングに使用するデータセットに関する制限された情報を提供すること。
論文 参考訳(メタデータ) (2022-10-11T10:20:31Z) - Characterizing and Understanding the Behavior of Quantized Models for
Reliable Deployment [32.01355605506855]
量子化対応トレーニングは、標準、逆数、ミックスアップトレーニングよりも安定したモデルを生成することができる。
診断は、しばしばトップ1とトップ2の出力確率に近づき、$Margin$は、相違点を区別する他の不確実性指標よりも優れた指標である。
我々は、量子化されたモデルをさらに研究するための新しいベンチマークとして、コードとモデルをオープンソース化した。
論文 参考訳(メタデータ) (2022-04-08T11:19:16Z) - No One Representation to Rule Them All: Overlapping Features of Training
Methods [12.58238785151714]
ハイパフォーマンスモデルは、トレーニング方法論に関係なく、同様の予測をする傾向があります。
近年の研究では、大規模なコントラスト学習など、非常に異なるトレーニングテクニックが、競争的に高い精度で実現されている。
これらのモデルはデータの一般化に特化しており、より高いアンサンブル性能をもたらす。
論文 参考訳(メタデータ) (2021-10-20T21:29:49Z) - Exploring Strategies for Generalizable Commonsense Reasoning with
Pre-trained Models [62.28551903638434]
モデルの一般化と精度に及ぼす3つの異なる適応法の影響を計測する。
2つのモデルを用いた実験では、微調整はタスクの内容と構造の両方を学習することで最もうまく機能するが、過度に適合し、新しい答えへの限定的な一般化に苦しむ。
我々は、プレフィックスチューニングのような代替適応手法が同等の精度を持つのを観察するが、解を見落とさずに一般化し、対数分割に対してより堅牢である。
論文 参考訳(メタデータ) (2021-09-07T03:13:06Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - On the Efficacy of Adversarial Data Collection for Question Answering:
Results from a Large-Scale Randomized Study [65.17429512679695]
逆データ収集(ADC)では、人間の労働力がモデルとリアルタイムで対話し、誤った予測を誘発する例を作成しようとする。
ADCの直感的な魅力にも拘わらず、敵対的データセットのトレーニングがより堅牢なモデルを生成するかどうかは不明だ。
論文 参考訳(メタデータ) (2021-06-02T00:48:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。