論文の概要: Assessing Dataset Bias in Computer Vision
- arxiv url: http://arxiv.org/abs/2205.01811v1
- Date: Tue, 3 May 2022 22:45:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-06 03:44:59.476633
- Title: Assessing Dataset Bias in Computer Vision
- Title(参考訳): コンピュータビジョンにおけるデータセットバイアスの評価
- Authors: Athiya Deviyani
- Abstract要約: 偏見は、訓練するモデルに伝播する傾向があり、しばしば少数派ではパフォーマンスが劣る。
UTKFaceデータセットのサンプルに、アンダーサンプリング、幾何変換、可変オートエンコーダ(VAE)、生成逆ネットワーク(GAN)など、いくつかの拡張手法を適用する。
FairFaceモデルと比較して、複数のデータセット上の年齢と民族の分類において、我々のモデルが全体的なパフォーマンスと一貫性を向上できることを示しました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A biased dataset is a dataset that generally has attributes with an uneven
class distribution. These biases have the tendency to propagate to the models
that train on them, often leading to a poor performance in the minority class.
In this project, we will explore the extent to which various data augmentation
methods alleviate intrinsic biases within the dataset. We will apply several
augmentation techniques on a sample of the UTKFace dataset, such as
undersampling, geometric transformations, variational autoencoders (VAEs), and
generative adversarial networks (GANs). We then trained a classifier for each
of the augmented datasets and evaluated their performance on the native test
set and on external facial recognition datasets. We have also compared their
performance to the state-of-the-art attribute classifier trained on the
FairFace dataset. Through experimentation, we were able to find that training
the model on StarGAN-generated images led to the best overall performance. We
also found that training on geometrically transformed images lead to a similar
performance with a much quicker training time. Additionally, the best
performing models also exhibit a uniform performance across the classes within
each attribute. This signifies that the model was also able to mitigate the
biases present in the baseline model that was trained on the original training
set. Finally, we were able to show that our model has a better overall
performance and consistency on age and ethnicity classification on multiple
datasets when compared with the FairFace model. Our final model has an accuracy
on the UTKFace test set of 91.75%, 91.30%, and 87.20% for the gender, age, and
ethnicity attribute respectively, with a standard deviation of less than 0.1
between the accuracies of the classes of each attribute.
- Abstract(参考訳): バイアスデータセットは、一般に不均一なクラス分布を持つ属性を持つデータセットである。
これらのバイアスは、それらを訓練するモデルに伝播する傾向があり、マイノリティクラスではパフォーマンスが低下することが多い。
このプロジェクトでは,データセット内の内在バイアスを緩和するさまざまなデータ拡張手法について検討する。
我々は、アンダーサンプリング、幾何変換、変分オートエンコーダ(vaes)、生成逆ネットワーク(gans)など、utkfaceデータセットのサンプルにいくつかの拡張技術を適用する。
次に,拡張データセット毎に分類器をトレーニングし,ネイティブテストセットと外部顔認識データセットでの性能評価を行った。
また、FairFaceデータセットでトレーニングされた最先端の属性分類器と比較した。
実験により、StarGAN生成画像上でモデルをトレーニングすることで、全体的なパフォーマンスが最高のものになったことがわかった。
また、幾何変換画像のトレーニングは、より高速にトレーニングできる同様のパフォーマンスをもたらすことが分かりました。
さらに、最高のパフォーマンスモデルは、各属性内のクラス全体で均一なパフォーマンスを示す。
これは、モデルが元のトレーニングセットでトレーニングされたベースラインモデルに存在するバイアスを軽減することができたことを示している。
最後に、FairFaceモデルと比較して、我々のモデルは、複数のデータセット上の年齢と民族の分類において、より優れた全体的なパフォーマンスと一貫性を持つことを示した。
我々の最終モデルは、それぞれ性別、年齢、民族属性に対して91.75%、91.30%、87.20%のUTKFaceテストセットの精度を持ち、各属性のクラス間の標準偏差は0.1未満である。
関連論文リスト
- Distributionally Generative Augmentation for Fair Facial Attribute Classification [69.97710556164698]
Facial Attribute Classification (FAC) は広く応用されている。
従来の手法で訓練されたFACモデルは、様々なデータサブポピュレーションにまたがる精度の不整合を示すことによって不公平である可能性がある。
本研究は,付加アノテーションなしでバイアスデータ上で公正なFACモデルをトレーニングするための,新しい世代ベースの2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-11T10:50:53Z) - Adversarial Augmentation Training Makes Action Recognition Models More
Robust to Realistic Video Distribution Shifts [13.752169303624147]
アクション認識モデルは、トレーニングデータとテストデータの間の自然な分散シフトに直面したとき、堅牢性を欠くことが多い。
そこで本研究では,そのような分布格差に対するモデルレジリエンスを評価するための2つの新しい評価手法を提案する。
提案手法は,3つの動作認識モデルにまたがるベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-21T05:50:39Z) - Analyzing Bias in Diffusion-based Face Generation Models [75.80072686374564]
拡散モデルは、合成データ生成と画像編集アプリケーションでますます人気がある。
本研究では, 性別, 人種, 年齢などの属性に関して, 拡散型顔生成モデルにおけるバイアスの存在について検討する。
本研究は,GAN(Generative Adversarial Network)とGAN(Generative Adversarial Network)をベースとした顔生成モデルにおいて,データセットサイズが属性組成および知覚品質に与える影響について検討する。
論文 参考訳(メタデータ) (2023-05-10T18:22:31Z) - Leaving Reality to Imagination: Robust Classification via Generated
Datasets [24.411444438920988]
近年のロバスト性に関する研究では、テストセットと同様のデータセットでトレーニングされたニューラルイメージ分類器間での顕著なパフォーマンスギャップが明らかになった。
生成したデータセットは、画像分類器の自然な堅牢性にどのように影響するのか?
生成したデータで強化された実データに基づいて訓練された画像ネット分類器は、標準トレーニングよりも精度が高く、効果的に頑健であることがわかった。
論文 参考訳(メタデータ) (2023-02-05T22:49:33Z) - Effective Robustness against Natural Distribution Shifts for Models with
Different Training Data [113.21868839569]
効果的ロバスト性」は、分配内(ID)性能から予測できる以上の余分な分配外ロバスト性を測定する。
異なるデータに基づいてトレーニングされたモデルの有効ロバスト性を評価・比較するための新しい評価指標を提案する。
論文 参考訳(メタデータ) (2023-02-02T19:28:41Z) - Feature Weaken: Vicinal Data Augmentation for Classification [1.7013938542585925]
モデルトレーニングと同一のコサイン類似性を持つビジナルデータ分布を構築するためにFeature Weakenを用いている。
この研究は、モデルの分類性能と一般化を改善するだけでなく、モデルの訓練を安定させ、モデルの収束を加速させる。
論文 参考訳(メタデータ) (2022-11-20T11:00:23Z) - Learning from Mixed Datasets: A Monotonic Image Quality Assessment Model [17.19991754976893]
異なるデータセットを組み合わせたIQAモデル学習のための単調ニューラルネットワークを提案する。
特に,本モデルは,データセット共有品質回帰器と,データセット固有の品質変換器から構成される。
論文 参考訳(メタデータ) (2022-09-21T15:53:59Z) - EllSeg-Gen, towards Domain Generalization for head-mounted eyetracking [19.913297057204357]
このようなアーティファクトの存在にもかかわらず、畳み込みネットワークは視線特徴の抽出に優れていることを示す。
複数のデータセットでトレーニングされた単一モデルのパフォーマンスを、個々のデータセットでトレーニングされたモデルのプールと比較する。
その結果, 眼球画像を用いたモデルでは, マルチセットトレーニングにより, 外観の多様性が向上することが示唆された。
論文 参考訳(メタデータ) (2022-05-04T08:35:52Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - Comparing Test Sets with Item Response Theory [53.755064720563]
我々は,18の事前学習トランスフォーマーモデルから予測した29のデータセットを個別のテスト例で評価した。
Quoref、HellaSwag、MC-TACOは最先端のモデルを区別するのに最適である。
また、QAMRやSQuAD2.0のようなQAデータセットに使用されるスパン選択タスク形式は、強いモデルと弱いモデルとの差別化に有効である。
論文 参考訳(メタデータ) (2021-06-01T22:33:53Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。