論文の概要: Bias mitigation techniques in image classification: fair machine
learning in human heritage collections
- arxiv url: http://arxiv.org/abs/2303.11449v1
- Date: Mon, 20 Mar 2023 20:49:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-22 17:27:27.098559
- Title: Bias mitigation techniques in image classification: fair machine
learning in human heritage collections
- Title(参考訳): 画像分類におけるバイアス緩和技術--人類遺産コレクションにおける公正機械学習
- Authors: Dalia Ortiz Pablo, Sushruth Badri, Erik Nor\'en, Christoph N\"otzli
- Abstract要約: 我々は,2つの最先端ニューラルネットワークであるXceptionとEfficientNetを用いて,性別分類のためのバイアス緩和手法を評価する。
また、トレーニングデータの不足を克服するために、公平なデータセットを使用したトランスファーラーニングの利用についても検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A major problem with using automated classification systems is that if they
are not engineered correctly and with fairness considerations, they could be
detrimental to certain populations. Furthermore, while engineers have developed
cutting-edge technologies for image classification, there is still a gap in the
application of these models in human heritage collections, where data sets
usually consist of low-quality pictures of people with diverse ethnicity,
gender, and age. In this work, we evaluate three bias mitigation techniques
using two state-of-the-art neural networks, Xception and EfficientNet, for
gender classification. Moreover, we explore the use of transfer learning using
a fair data set to overcome the training data scarcity. We evaluated the
effectiveness of the bias mitigation pipeline on a cultural heritage collection
of photographs from the 19th and 20th centuries, and we used the FairFace data
set for the transfer learning experiments. After the evaluation, we found that
transfer learning is a good technique that allows better performance when
working with a small data set. Moreover, the fairest classifier was found to be
accomplished using transfer learning, threshold change, re-weighting and image
augmentation as bias mitigation methods.
- Abstract(参考訳): 自動分類システムを使用する際の大きな問題は、それらが正しく設計されておらず、公平性を考慮していなければ、特定の人口に有害である可能性があることである。
さらに、エンジニアは画像分類のための最先端技術を開発したが、人間の遺産コレクションにおけるこれらのモデルの応用には依然としてギャップがあり、データセットは通常、多様な民族、性別、年齢を持つ人々の低品質な画像で構成されている。
本研究では,最新のニューラルネットワークであるxception と efficientnet を用いて,性別分類のためのバイアス軽減手法を3つ評価した。
さらに,トレーニングデータ不足を克服するために,公平なデータセットを用いた転送学習の利用について検討する。
本研究では,19世紀から20世紀の写真コレクションにおけるバイアス緩和パイプラインの有効性を評価し,FairFaceデータセットを用いて移動学習実験を行った。
評価の結果,小さなデータセットを扱う場合,より優れたパフォーマンスを実現するためには,転送学習がよい手法であることが判明した。
また, 最も公平な分類器は, 伝達学習, 閾値変化, 再重み付け, 画像強調をバイアス緩和法として用いた。
関連論文リスト
- Enhance Image Classification via Inter-Class Image Mixup with Diffusion Model [80.61157097223058]
画像分類性能を高めるための一般的な戦略は、T2Iモデルによって生成された合成画像でトレーニングセットを増強することである。
本研究では,既存のデータ拡張技術の欠点について検討する。
Diff-Mixと呼ばれる革新的なクラス間データ拡張手法を導入する。
論文 参考訳(メタデータ) (2024-03-28T17:23:45Z) - Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Pre-text Representation Transfer for Deep Learning with Limited
Imbalanced Data : Application to CT-based COVID-19 Detection [18.72489078928417]
我々は、PRT(Pre-text Representation Transfer)という新しい概念を提案する。
PRTは元の分類層を保持し、教師なしのプレテキストタスクを通じて表現層を更新する。
提案手法により,従来の移動学習よりも一貫した効果が得られた。
論文 参考訳(メタデータ) (2023-01-21T04:47:35Z) - Tackling Data Bias in Painting Classification with Style Transfer [12.88476464580968]
そこで我々は,Kaokoreデータセットのような小さな絵画データセットにおいて,データのバイアスを処理するシステムを提案する。
本システムは,スタイル伝達と分類の2段階からなる。
論文 参考訳(メタデータ) (2023-01-06T14:33:53Z) - Facilitated machine learning for image-based fruit quality assessment in
developing countries [68.8204255655161]
自動画像分類は食品科学における教師あり機械学習の一般的な課題である。
事前学習型視覚変換器(ViT)に基づく代替手法を提案する。
標準的なデバイス上で限られたリソースで簡単に実装できる。
論文 参考訳(メタデータ) (2022-07-10T19:52:20Z) - Deep transfer learning for image classification: a survey [4.590533239391236]
画像分類のベストプラクティスは、大量のラベル付きデータに基づいて大きな深層モデルをトレーニングできることである。
これらのシナリオでは、トランスファーラーニングはパフォーマンスを改善するのに役立つ。
画像分類におけるトランスファーラーニングの適用の新たな分類法を提案する。
論文 参考訳(メタデータ) (2022-05-20T00:03:39Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - A Systematic Evaluation of Domain Adaptation in Facial Expression
Recognition [0.0]
本稿では,表情認識における領域適応の体系的評価について述べる。
我々は、最先端のトランスファー学習技術と、6つの一般的な顔表情データセットを使用する。
その結果,移動学習の精度は高くなく,目的のデータセットと慣用的に異なることがわかった。
論文 参考訳(メタデータ) (2021-06-29T14:41:19Z) - Few-Shot Learning with Part Discovery and Augmentation from Unlabeled
Images [79.34600869202373]
帰納的バイアスは、ラベルなし画像の平坦な集合から学習でき、目に見えるクラスと目に見えないクラスの間で伝達可能な表現としてインスタンス化されることを示す。
具体的には、トランスファー可能な表現を学習するための、新しいパートベース自己教師型表現学習手法を提案する。
我々の手法は印象的な結果をもたらし、それまでの最高の教師なし手法を7.74%、9.24%上回った。
論文 参考訳(メタデータ) (2021-05-25T12:22:11Z) - Few-Shot Learning for Image Classification of Common Flora [0.0]
MAML(Model-Agnostic Meta Learning)を用いた画像分類のためのメタラーニング分野の最先端の研究と、さまざまな最先端のトランスファーラーニングウェイトとアーキテクチャをテストした結果を紹介します。
その結果、データセットが十分に大きい場合、両方のプラクティスが十分なパフォーマンスを提供しますが、十分なパフォーマンスを維持するためにデータスパーシャビリティが導入されると、どちらも苦労しています。
論文 参考訳(メタデータ) (2021-05-07T03:54:51Z) - Adversarially-Trained Deep Nets Transfer Better: Illustration on Image
Classification [53.735029033681435]
トランスファーラーニングは、訓練済みのディープニューラルネットワークを画像認識タスクに新しいドメインに適用するための強力な方法論である。
本研究では,非逆学習モデルよりも逆学習モデルの方が優れていることを示す。
論文 参考訳(メタデータ) (2020-07-11T22:48:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。