論文の概要: Fair Attribute Classification through Latent Space De-biasing
- arxiv url: http://arxiv.org/abs/2012.01469v3
- Date: Fri, 2 Apr 2021 17:57:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 03:55:07.022314
- Title: Fair Attribute Classification through Latent Space De-biasing
- Title(参考訳): 空間デバイアスによるフェア属性分類
- Authors: Vikram V. Ramaswamy, Sunnie S. Y. Kim and Olga Russakovsky
- Abstract要約: 相関関係から生じるバイアスを緩和しながら、正確な目標分類器を訓練する手法を提案する。
我々は、GANを使って現実的な画像を生成し、これらの画像を下層の潜伏空間に摂動させ、保護された属性ごとにバランスのとれたトレーニングデータを生成する。
我々は、CelebAデータセットの複数のターゲットラベルと保護属性を網羅的に評価し、その空間における既存の文献と比較し、詳細な分析を行う。
- 参考スコア(独自算出の注目度): 17.647146032798005
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness in visual recognition is becoming a prominent and critical topic of
discussion as recognition systems are deployed at scale in the real world.
Models trained from data in which target labels are correlated with protected
attributes (e.g., gender, race) are known to learn and exploit those
correlations. In this work, we introduce a method for training accurate target
classifiers while mitigating biases that stem from these correlations. We use
GANs to generate realistic-looking images, and perturb these images in the
underlying latent space to generate training data that is balanced for each
protected attribute. We augment the original dataset with this perturbed
generated data, and empirically demonstrate that target classifiers trained on
the augmented dataset exhibit a number of both quantitative and qualitative
benefits. We conduct a thorough evaluation across multiple target labels and
protected attributes in the CelebA dataset, and provide an in-depth analysis
and comparison to existing literature in the space.
- Abstract(参考訳): 認識システムが現実世界に大規模に展開されるにつれ、視覚認識の公平性は議論の目立って重要な話題になりつつある。
ターゲットラベルが保護属性(例えば、性別、人種)と相関しているデータから訓練されたモデルは、それらの相関を学習し、活用することが知られている。
本研究では,これらの相関関係から生じるバイアスを緩和しながら,正確な目標分類器を訓練する手法を提案する。
我々はGANを用いて現実的な画像を生成し、これらの画像を下層の潜伏空間に摂動させ、保護された属性ごとにバランスのとれたトレーニングデータを生成する。
この乱雑なデータで元のデータセットを拡大し、拡張データセットでトレーニングされたターゲット分類器が、定量と定性の両方の利点を示すことを実証的に示す。
celebaデータセット内の複数のターゲットラベルと保護属性を徹底的に評価し,この分野の既存文献との比較を行い,詳細な分析を行った。
関連論文リスト
- Granularity Matters in Long-Tail Learning [62.30734737735273]
より粒度の細かいデータセットは、データの不均衡の影響を受けにくい傾向があります。
既存のクラスと視覚的に類似したオープンセット補助クラスを導入し、頭と尾の両方の表現学習を強化することを目的とした。
補助授業の圧倒的な存在がトレーニングを混乱させるのを防ぐために,近隣のサイレンシング障害を導入する。
論文 参考訳(メタデータ) (2024-10-21T13:06:21Z) - Mitigating Bias Using Model-Agnostic Data Attribution [2.9868610316099335]
機械学習モデルにおけるバイアスの緩和は、公平性と公平性を保証するための重要な取り組みである。
本稿では, 画素画像の属性を利用して, バイアス属性を含む画像の領域を特定し, 正規化することで, バイアスに対処する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-08T13:00:56Z) - Leveraging vision-language models for fair facial attribute classification [19.93324644519412]
汎用視覚言語モデル(英: General-purpose Vision-Language Model, VLM)は、共通感性属性のための豊富な知識源である。
我々は,VLM予測値と人間定義属性分布の対応関係を解析した。
複数のベンチマークの顔属性分類データセットの実験は、既存の教師なしベースラインよりもモデルの公平性の向上を示している。
論文 参考訳(メタデータ) (2024-03-15T18:37:15Z) - Memory Consistency Guided Divide-and-Conquer Learning for Generalized
Category Discovery [56.172872410834664]
一般カテゴリー発見(GCD)は、半教師付き学習のより現実的で挑戦的な設定に対処することを目的としている。
メモリ一貫性を誘導する分枝・分枝学習フレームワーク(MCDL)を提案する。
本手法は,画像認識の目に見えるクラスと見えないクラスの両方において,最先端のモデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-24T09:39:45Z) - A Self Supervised StyleGAN for Image Annotation and Classification with
Extremely Limited Labels [35.43549147657739]
画像アノテーションと分類のための自己教師型アプローチであるSS-StyleGANを提案する。
提案手法は,50と10の小さなラベル付きデータセットを用いて,強力な分類結果が得られることを示す。
論文 参考訳(メタデータ) (2023-12-26T09:46:50Z) - Improving Fairness using Vision-Language Driven Image Augmentation [60.428157003498995]
公平性は、特に顔領域において、ディープラーニングの識別モデルを訓練する際に重要である。
モデルは、特定の特性(年齢や肌の色など)と無関係な属性(下流タスク)を関連付ける傾向がある
本稿では,これらの相関を緩和し,公平性を向上する手法を提案する。
論文 参考訳(メタデータ) (2023-11-02T19:51:10Z) - Data AUDIT: Identifying Attribute Utility- and Detectability-Induced
Bias in Task Models [8.420252576694583]
医用画像データセットの厳密で定量的なスクリーニングのための第1の手法を提案する。
提案手法は,データセット属性に関連するリスクを,検出性と実用性の観点から分解する。
本手法を用いて, ほぼ知覚不能なバイアス誘発アーティファクトを確実に同定するスクリーニング手法を提案する。
論文 参考訳(メタデータ) (2023-04-06T16:50:15Z) - Beyond Separability: Analyzing the Linear Transferability of Contrastive
Representations to Related Subpopulations [50.33975968859988]
コントラスト学習(Contrastive Learning)は、ラベルのないデータを用いて、下流の分類タスクに線形に分離可能な表現を生成する、非常に効果的な手法である。
最近の研究では、対照的表現はデータが単一のドメインから来るときに有用であるだけでなく、ドメイン間での転送にも有効であることが示されている。
論文 参考訳(メタデータ) (2022-04-06T09:10:23Z) - Combining Feature and Instance Attribution to Detect Artifacts [62.63504976810927]
トレーニングデータアーティファクトの識別を容易にする手法を提案する。
提案手法は,トレーニングデータのアーティファクトの発見に有効であることを示す。
我々は,これらの手法が実際にNLP研究者にとって有用かどうかを評価するために,小規模なユーザスタディを実施している。
論文 参考訳(メタデータ) (2021-07-01T09:26:13Z) - SCARF: Self-Supervised Contrastive Learning using Random Feature
Corruption [72.35532598131176]
本稿では,特徴のランダムなサブセットを乱してビューを形成するコントラスト学習手法であるSCARFを提案する。
SCARFは既存の戦略を補完し、オートエンコーダのような代替手段より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-29T08:08:33Z) - Matched sample selection with GANs for mitigating attribute confounding [30.488267816304177]
保護属性間の属性分布のバランスのとれたフルデータセットから画像のサブセットを選択するマッチングアプローチを提案する。
私たちのマッチングアプローチでは、セマンティック属性を保存する方法で、まず実際の画像を生成ネットワークの潜在空間に投影します。
次に、選択された保護属性にまたがるこの潜在空間で敵の一致を見つけ、セマンティクスと知覚属性が保護属性間でバランスをとるデータセットを生成する。
論文 参考訳(メタデータ) (2021-03-24T19:18:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。