論文の概要: Through a fair looking-glass: mitigating bias in image datasets
- arxiv url: http://arxiv.org/abs/2209.08648v1
- Date: Sun, 18 Sep 2022 20:28:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 16:15:16.005319
- Title: Through a fair looking-glass: mitigating bias in image datasets
- Title(参考訳): 妖精のメガネを通して--画像データセットの偏見を緩和する
- Authors: Amirarsalan Rajabi, Mehdi Yazdani-Jahromi, Ozlem Ozmen Garibay, Gita
Sukthankar
- Abstract要約: 目的変数間の統計的依存を最小化し,画像データセットを非バイアス化するための高速かつ効果的なモデルを提案する。
提案手法をCelebAデータセット上で評価し、その結果を最先端のデバイアス法と比較し、そのモデルが有望なフェアネスと精度の組み合わせを達成することを示す。
- 参考スコア(独自算出の注目度): 1.0323063834827415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the recent growth in computer vision applications, the question of how
fair and unbiased they are has yet to be explored. There is abundant evidence
that the bias present in training data is reflected in the models, or even
amplified. Many previous methods for image dataset de-biasing, including models
based on augmenting datasets, are computationally expensive to implement. In
this study, we present a fast and effective model to de-bias an image dataset
through reconstruction and minimizing the statistical dependence between
intended variables. Our architecture includes a U-net to reconstruct images,
combined with a pre-trained classifier which penalizes the statistical
dependence between target attribute and the protected attribute. We evaluate
our proposed model on CelebA dataset, compare the results with a
state-of-the-art de-biasing method, and show that the model achieves a
promising fairness-accuracy combination.
- Abstract(参考訳): 近年のコンピュータビジョンアプリケーションの成長に伴い、それらがどの程度公平で偏りのないものなのかという疑問はまだ解明されていない。
トレーニングデータに存在するバイアスがモデルに反映される、あるいは増幅される、という証拠はたくさんあります。
拡張データセットに基づくモデルを含む、画像データセットのデバイアスに関する多くの従来の方法は、実装するのに計算コストがかかる。
本研究では,画像データセットを復元し,対象変数間の統計的依存性を最小化する高速かつ効果的なモデルを提案する。
本アーキテクチャは,画像再構成のためのu-netと,対象属性と保護属性の統計的依存性をペナライズする事前学習された分類器を組み合わせたものである。
celebaデータセットにおける提案モデルを評価し,その結果を最先端のデバイアス法と比較し,このモデルが有望な公平性・正確性の組み合わせを実現することを示す。
関連論文リスト
- Debiasing Multimodal Models via Causal Information Minimization [65.23982806840182]
我々は、マルチモーダルデータのための因果グラフにおいて、共同創設者から生じるバイアスを研究する。
ロバストな予測機能は、モデルがアウト・オブ・ディストリビューションデータに一般化するのに役立つ多様な情報を含んでいる。
これらの特徴を共同設立者表現として使用し、因果理論によって動機づけられた手法を用いてモデルからバイアスを取り除く。
論文 参考訳(メタデータ) (2023-11-28T16:46:14Z) - A Simple and Efficient Baseline for Data Attribution on Images [107.12337511216228]
現在の最先端のアプローチでは、モデル予測を正確に評価するために、最大30万のモデルの大規模なアンサンブルが必要となる。
本研究では、自己教師付き学習によって事前訓練されたバックボーンの特徴空間を利用して、データ帰属を行うミニマリストベースラインに焦点を当てる。
提案手法はモデルに依存しず,大規模データセットに容易にスケールできる。
論文 参考訳(メタデータ) (2023-11-03T17:29:46Z) - Unbiased Image Synthesis via Manifold-Driven Sampling in Diffusion
Models [24.610977739714134]
拡散モデルは、高品質な画像を生成することができる強力な生成モデルのクラスである。
データバイアスに関連する問題に直面し、特定のデータモードを優先する。
本稿では,拡散モデルにおけるデータバイアスを軽減するために,多様体誘導を利用した新しい手法を提案する。
論文 参考訳(メタデータ) (2023-07-17T02:03:17Z) - DeAR: Debiasing Vision-Language Models with Additive Residuals [5.672132510411465]
大規模な事前学習型視覚言語モデル(VLM)は、リッチで適応可能な画像とテキスト表現を提供する。
これらのモデルは、トレーニングデータ中の様々なアイデンティティ群が歪んだ分布のため、社会的バイアスに悩まされる。
本稿では,元の表現をオフセットする付加的残像表現を学習する新しいデバイアス法であるDeARを提案する。
論文 参考訳(メタデータ) (2023-03-18T14:57:43Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - DASH: Visual Analytics for Debiasing Image Classification via
User-Driven Synthetic Data Augmentation [27.780618650580923]
画像分類モデルは、訓練データにおいて、入力特徴と出力クラスとの間の無関係な共起に基づいてクラスを予測することをしばしば学習する。
我々は、望ましくない相関を「データバイアス」と呼び、データバイアスを引き起こす視覚的特徴を「バイアス要因」と呼んでいる。
人間の介入なしにバイアスを自動的に識別し緩和することは困難である。
論文 参考訳(メタデータ) (2022-09-14T00:44:41Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Visual Recognition with Deep Learning from Biased Image Datasets [6.10183951877597]
視覚認知の文脈において、バイアスモデルがどのように治療問題に適用できるかを示す。
作業中のバイアス機構に関する(近似的な)知識に基づいて、我々のアプローチは観察を再重み付けする。
本稿では,画像データベース間で共有される低次元画像表現を提案する。
論文 参考訳(メタデータ) (2021-09-06T10:56:58Z) - Negative Data Augmentation [127.28042046152954]
負のデータ拡張サンプルは、データ分散のサポートに関する情報を提供することを示す。
我々は、NDAを識別器の合成データの追加源として利用する新しいGAN訓練目標を提案する。
実験により,本手法で訓練したモデルでは,異常検出能力の向上とともに条件付き・条件付き画像生成の改善を実現している。
論文 参考訳(メタデータ) (2021-02-09T20:28:35Z) - Learning to Model and Ignore Dataset Bias with Mixed Capacity Ensembles [66.15398165275926]
本稿では,データセット固有のパターンを自動的に検出・無視する手法を提案する。
我々の方法は、より高い容量モデルでアンサンブルで低容量モデルを訓練する。
視覚的質問応答データセットの10ポイントゲインを含む,すべての設定の改善を示す。
論文 参考訳(メタデータ) (2020-11-07T22:20:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。