論文の概要: Matched sample selection with GANs for mitigating attribute confounding
- arxiv url: http://arxiv.org/abs/2103.13455v1
- Date: Wed, 24 Mar 2021 19:18:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-27 02:55:03.982413
- Title: Matched sample selection with GANs for mitigating attribute confounding
- Title(参考訳): 属性結合化のためのganとのマッチングサンプル選択
- Authors: Chandan Singh, Guha Balakrishnan, Pietro Perona
- Abstract要約: 保護属性間の属性分布のバランスのとれたフルデータセットから画像のサブセットを選択するマッチングアプローチを提案する。
私たちのマッチングアプローチでは、セマンティック属性を保存する方法で、まず実際の画像を生成ネットワークの潜在空間に投影します。
次に、選択された保護属性にまたがるこの潜在空間で敵の一致を見つけ、セマンティクスと知覚属性が保護属性間でバランスをとるデータセットを生成する。
- 参考スコア(独自算出の注目度): 30.488267816304177
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Measuring biases of vision systems with respect to protected attributes like
gender and age is critical as these systems gain widespread use in society.
However, significant correlations between attributes in benchmark datasets make
it difficult to separate algorithmic bias from dataset bias. To mitigate such
attribute confounding during bias analysis, we propose a matching approach that
selects a subset of images from the full dataset with balanced attribute
distributions across protected attributes. Our matching approach first projects
real images onto a generative adversarial network (GAN)'s latent space in a
manner that preserves semantic attributes. It then finds image matches in this
latent space across a chosen protected attribute, yielding a dataset where
semantic and perceptual attributes are balanced across the protected attribute.
We validate projection and matching strategies with qualitative, quantitative,
and human annotation experiments. We demonstrate our work in the context of
gender bias in multiple open-source facial-recognition classifiers and find
that bias persists after removing key confounders via matching. Code and
documentation to reproduce the results here and apply the methods to new data
is available at https://github.com/csinva/matching-with-gans .
- Abstract(参考訳): 性別や年齢といった保護された属性に対する視覚システムのバイアスを測定することは、これらのシステムが社会で広く使われるようになるために重要である。
しかし、ベンチマークデータセットの属性間の有意な相関は、アルゴリズムバイアスとデータセットバイアスの分離を難しくする。
バイアス解析において,そのような属性の共起を緩和するために,保護属性間のバランスの取れた属性分布を持つ全データセットから,画像のサブセットを選択するマッチング手法を提案する。
我々のマッチング手法は,まず実画像からGAN(Generative Adversarial Network)の潜在空間に,意味的属性を保存する方法で投影する。
次に、選択された保護属性をまたいでこの潜在空間で画像マッチングを見つけ、セマンティクスと知覚属性が保護属性間でバランスをとるデータセットを生成する。
予測とマッチング戦略を質的,定量的,人間のアノテーション実験で検証する。
私たちは、複数のオープンソース顔認識分類器におけるジェンダーバイアスの文脈で、私たちの仕事の成果を実証し、マッチングによって重要な共同創設者を取り除いた後、バイアスが持続することを見出します。
ここで結果を再現し、メソッドを新しいデータに適用するためのコードとドキュメントはhttps://github.com/csinva/matching-with-gans.orgで公開されている。
関連論文リスト
- AITTI: Learning Adaptive Inclusive Token for Text-to-Image Generation [53.65701943405546]
我々は適応的包摂トークンを学習し、最終的な生成出力の属性分布をシフトする。
本手法では,明示的な属性仕様やバイアス分布の事前知識は必要としない。
提案手法は,特定の属性を要求されたり,生成の方向を編集するモデルに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2024-06-18T17:22:23Z) - Enhancing Intrinsic Features for Debiasing via Investigating Class-Discerning Common Attributes in Bias-Contrastive Pair [36.221761997349795]
ディープニューラルネットワークは、データセットバイアスの存在下でターゲットクラスと急激な相関を持つバイアス特性に依存している。
本稿では,本質的特徴の領域を示す空間的指示を明示的に提示する手法を提案する。
実験により, 種々のバイアス重大度を有する合成および実世界のデータセットに対して, 最先端の性能を達成できることが実証された。
論文 参考訳(メタデータ) (2024-04-30T04:13:14Z) - Leveraging vision-language models for fair facial attribute classification [19.93324644519412]
汎用視覚言語モデル(英: General-purpose Vision-Language Model, VLM)は、共通感性属性のための豊富な知識源である。
我々は,VLM予測値と人間定義属性分布の対応関係を解析した。
複数のベンチマークの顔属性分類データセットの実験は、既存の教師なしベースラインよりもモデルの公平性の向上を示している。
論文 参考訳(メタデータ) (2024-03-15T18:37:15Z) - Attribute-Aware Deep Hashing with Self-Consistency for Large-Scale
Fine-Grained Image Retrieval [65.43522019468976]
本稿では属性認識ハッシュコードを生成するための自己整合性を持つ属性認識ハッシュネットワークを提案する。
本研究では,高レベル属性固有ベクトルを教師なしで蒸留する再構成タスクのエンコーダ・デコーダ構造ネットワークを開発する。
我々のモデルは,これらの属性ベクトルに特徴デコリレーション制約を設けて,それらの代表的能力を強化する。
論文 参考訳(メタデータ) (2023-11-21T08:20:38Z) - Hierarchical Visual Primitive Experts for Compositional Zero-Shot
Learning [52.506434446439776]
合成ゼロショット学習(CZSL)は、既知のプリミティブ(属性とオブジェクト)の事前知識で構成を認識することを目的としている。
このような問題に対処するために,コンポジショントランスフォーマー(CoT)と呼ばれるシンプルでスケーラブルなフレームワークを提案する。
提案手法は,MIT-States,C-GQA,VAW-CZSLなど,いくつかのベンチマークでSoTA性能を実現する。
論文 参考訳(メタデータ) (2023-08-08T03:24:21Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - CAT: Controllable Attribute Translation for Fair Facial Attribute
Classification [14.191129493685212]
顔属性分類では、データセットバイアスは保護属性レベルと顔属性レベルの両方から生じる。
所望の顔属性を持つ高品質で十分な顔画像を生成するための効果的なパイプラインを提案する。
提案手法は,データセットのバイアスに対処するため,再サンプリングとバランスの取れたデータセット構築の両方に優れる。
論文 参考訳(メタデータ) (2022-09-14T18:04:20Z) - Spatial and Semantic Consistency Regularizations for Pedestrian
Attribute Recognition [50.932864767867365]
本稿では,各属性に対する空間的および意味的一貫性を実現するために,2つの相補的正規化からなるフレームワークを提案する。
属性の正確な位置に基づいて,本質的および識別的意味的特徴を抽出する意味的整合性正規化を提案する。
その結果,提案手法はパラメータを増大させることなく,最先端の手法に対して良好に動作することがわかった。
論文 参考訳(メタデータ) (2021-09-13T03:36:44Z) - Fair Attribute Classification through Latent Space De-biasing [17.647146032798005]
相関関係から生じるバイアスを緩和しながら、正確な目標分類器を訓練する手法を提案する。
我々は、GANを使って現実的な画像を生成し、これらの画像を下層の潜伏空間に摂動させ、保護された属性ごとにバランスのとれたトレーニングデータを生成する。
我々は、CelebAデータセットの複数のターゲットラベルと保護属性を網羅的に評価し、その空間における既存の文献と比較し、詳細な分析を行う。
論文 参考訳(メタデータ) (2020-12-02T19:18:58Z) - Not All Datasets Are Born Equal: On Heterogeneous Data and Adversarial
Examples [46.625818815798254]
我々は、異種データで訓練された機械学習モデルは、同種データで訓練された機械学習モデルと同じくらい敵の操作に影響を受けやすいと論じる。
不均一な入力空間における逆摂動を識別する汎用的な最適化フレームワークを提案する。
その結果、異種データセットの入力妥当性に制約が課されているにもかかわらず、そのようなデータを用いて訓練された機械学習モデルは相変わらず敵の例にも適用可能であることが示された。
論文 参考訳(メタデータ) (2020-10-07T05:24:23Z) - Attribute Mix: Semantic Data Augmentation for Fine Grained Recognition [102.45926816660665]
本研究では属性レベルのデータ拡張戦略であるAttribute Mixを提案する。
その原則は、属性の特徴が細粒度のサブカテゴリ間で共有され、画像間でシームレスに転送可能であることである。
論文 参考訳(メタデータ) (2020-04-06T14:06:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。