論文の概要: FLAC: Fairness-Aware Representation Learning by Suppressing
Attribute-Class Associations
- arxiv url: http://arxiv.org/abs/2304.14252v1
- Date: Thu, 27 Apr 2023 15:10:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-28 13:00:48.269862
- Title: FLAC: Fairness-Aware Representation Learning by Suppressing
Attribute-Class Associations
- Title(参考訳): flac:属性クラスアソシエーションの抑制によるフェアネス認識表現学習
- Authors: Ioannis Sarridis, Christos Koutlis, Symeon Papadopoulos, Christos Diou
- Abstract要約: 本研究は,属性ラベルを使わずに,モデルが抽出した特徴と保護属性との間の相互情報を最小化する手法を導入する。
理論上、保護された属性とは無関係な公正な表現につながることが示されている。
- 参考スコア(独自算出の注目度): 11.191375513738361
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Bias in computer vision systems can perpetuate or even amplify discrimination
against certain populations. Considering that bias is often introduced by
biased visual datasets, many recent research efforts focus on training fair
models using such data. However, most of them heavily rely on the availability
of protected attribute labels in the dataset, which limits their applicability,
while label-unaware approaches, i.e., approaches operating without such labels,
exhibit considerably lower performance. To overcome these limitations, this
work introduces FLAC, a methodology that minimizes mutual information between
the features extracted by the model and a protected attribute, without the use
of attribute labels. To do that, FLAC proposes a sampling strategy that
highlights underrepresented samples in the dataset, and casts the problem of
learning fair representations as a probability matching problem that leverages
representations extracted by a bias-capturing classifier. It is theoretically
shown that FLAC can indeed lead to fair representations, that are independent
of the protected attributes. FLAC surpasses the current state-of-the-art on
Biased MNIST, CelebA, and UTKFace, by 29.1%, 18.1%, and 21.9%, respectively.
Additionally, FLAC exhibits 2.2% increased accuracy on ImageNet-A consisting of
the most challenging samples of ImageNet. Finally, in most experiments, FLAC
even outperforms the bias label-aware state-of-the-art methods.
- Abstract(参考訳): コンピュータビジョンシステムのバイアスは、特定の集団に対する差別を永久にまたは増幅することができる。
バイアスは、バイアス付きビジュアルデータセットによってしばしば導入されるため、近年の多くの研究は、そのようなデータを使用して公正なモデルをトレーニングすることに重点を置いている。
しかし、それらのほとんどがデータセット内の保護された属性ラベルの可用性に大きく依存しており、その適用性は制限されているが、ラベルを意識しないアプローチ、すなわちそのようなラベルなしで運用されるアプローチは、かなり低いパフォーマンスを示している。
これらの制限を克服するため、FLACは属性ラベルを使わずにモデルによって抽出された特徴と保護された属性との間の相互情報を最小化する手法である。
そこでFLACは,データセットの未表現サンプルを強調表示するサンプリング戦略を提案し,バイアスキャプチャー分類器によって抽出された表現を利用する確率マッチング問題として公正表現の学習問題を論じる。
FLACは、保護された属性とは独立な公正な表現につながることが理論的に示されている。
FLAC は現在の Biased MNIST、CelebA、UTKFace を29.1%、18.1%、21.9% で上回っている。
さらに、FLACはImageNetの最も難しいサンプルからなるImageNet-Aの精度が2.2%向上している。
最後に、ほとんどの実験では、FLACはバイアスラベルを意識した最先端の手法よりも優れています。
関連論文リスト
- Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Virtual Category Learning: A Semi-Supervised Learning Method for Dense
Prediction with Extremely Limited Labels [63.16824565919966]
本稿では,ラベルの修正を伴わずに,混乱したサンプルを積極的に使用することを提案する。
仮想カテゴリー(VC)は、モデルの最適化に安全に貢献できるように、各混乱したサンプルに割り当てられる。
私たちの興味深い発見は、密集した視覚タスクにおけるVC学習の利用に注目しています。
論文 参考訳(メタデータ) (2023-12-02T16:23:52Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Fairness Under Demographic Scarce Regime [4.800952706548665]
フェアネスと精度のトレードオフを改善する属性分類器を構築するためのフレームワークを提案する。
本研究は, 不確実な感度特性を持つ試料に公正性制約を課すことは, 公平性と正確性に有害であることを示す。
2つのデータセットに対する実験により,提案手法により,フェアネスと精度のトレードオフが大幅に向上したモデルが得られた。
論文 参考訳(メタデータ) (2023-07-24T19:07:34Z) - Unbiased Supervised Contrastive Learning [10.728852691100338]
本研究では,バイアスに頑健な表現を学習する問題に取り組む。
まず、偏りのあるデータを扱う際に、最近の対照的な損失がなぜ失敗するのかを明らかにするための、マージンに基づく理論的枠組みを提案する。
教師付きコントラスト損失(epsilon-SupInfoNCE)を新たに定式化し,正試料と負試料の最小距離をより正確に制御する。
理論的な枠組みのおかげで、極めて偏りのあるデータでもうまく機能する新しい偏りのある正規化損失であるFairKLも提案する。
論文 参考訳(メタデータ) (2022-11-10T13:44:57Z) - Semi-FairVAE: Semi-supervised Fair Representation Learning with
Adversarial Variational Autoencoder [92.67156911466397]
逆変分オートエンコーダに基づく半教師付き公正表現学習手法を提案する。
我々は、バイアス認識モデルを用いて、機密属性の固有バイアス情報をキャプチャする。
また、偏見のないモデルを用いて、対立学習を用いて偏見情報を取り除き、偏見のない公正表現を学習する。
論文 参考訳(メタデータ) (2022-04-01T15:57:47Z) - Active Learning by Feature Mixing [52.16150629234465]
本稿では,ALFA-Mixと呼ばれるバッチ能動学習手法を提案する。
予測の不整合を求めることにより,不整合な特徴を持つインスタンスを同定する。
これらの予測の不整合は、モデルが未認識のインスタンスで認識できない特徴を発見するのに役立ちます。
論文 参考訳(メタデータ) (2022-03-14T12:20:54Z) - Learning Fair Representations via Rate-Distortion Maximization [16.985698188471016]
本稿では,Fairness-Aware Rate Maximization (FaRM) を提案する。このFairness-Aware Rate Maximization (FaRM) は,Fairness-Aware Rate Maximization (FRM) 関数を用いて,同じ保護属性クラスに属するインスタンスの表現を非相関にすることで,人口統計情報を除去する。
FaRMは、複数のデータセット上で最先端のパフォーマンスを実現し、学習された表現は、非線形探索ネットワークによる攻撃に対する保護属性情報のリークを著しく少なくする。
論文 参考訳(メタデータ) (2022-01-31T19:00:52Z) - Improving Contrastive Learning on Imbalanced Seed Data via Open-World
Sampling [96.8742582581744]
我々は、Model-Aware K-center (MAK)と呼ばれるオープンワールドなラベルなしデータサンプリングフレームワークを提案する。
MAKは、尾性、近接性、多様性の3つの単純な原則に従う。
我々はMAKが学習した機能の全体的な表現品質とクラスバランス性の両方を継続的に改善できることを実証した。
論文 参考訳(メタデータ) (2021-11-01T15:09:41Z) - Bias-Tolerant Fair Classification [20.973916494320246]
ラベルバイアスと選択バイアスは、機械学習の結果の公平性を妨げるデータにおける2つの理由である。
本稿では,ラベルバイアスと選択バイアスの影響を受けるデータを用いて,利益を回復しようとするBias-TolerantFAirRegularizedLoss (B-FARL)を提案する。
B-FARLはバイアスデータを入力として取り、公正だが潜伏的なデータで訓練されたデータを近似したモデルを呼び出す。
論文 参考訳(メタデータ) (2021-07-07T13:31:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。