論文の概要: Discover the Unknown Biased Attribute of an Image Classifier
- arxiv url: http://arxiv.org/abs/2104.14556v1
- Date: Thu, 29 Apr 2021 17:59:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-30 14:01:43.279681
- Title: Discover the Unknown Biased Attribute of an Image Classifier
- Title(参考訳): 画像分類器の未知のバイアス属性を発見する
- Authors: Zhiheng Li, Chenliang Xu
- Abstract要約: 最近の研究では、AIアルゴリズムはデータからバイアスを学習する。
AIアルゴリズムのバイアスを特定することは緊急かつ不可欠である。
以前のバイアス識別パイプラインは、潜在的なバイアスを推測するために人間の専門家に依存している。
- 参考スコア(独自算出の注目度): 39.78368221108767
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent works find that AI algorithms learn biases from data. Therefore, it is
urgent and vital to identify biases in AI algorithms. However, the previous
bias identification pipeline overly relies on human experts to conjecture
potential biases (e.g., gender), which may neglect other underlying biases not
realized by humans. To help human experts better find the AI algorithms'
biases, we study a new problem in this work -- for a classifier that predicts a
target attribute of the input image, discover its unknown biased attribute.
To solve this challenging problem, we use a hyperplane in the generative
model's latent space to represent an image attribute; thus, the original
problem is transformed to optimizing the hyperplane's normal vector and offset.
We propose a novel total-variation loss within this framework as the objective
function and a new orthogonalization penalty as a constraint. The latter
prevents trivial solutions in which the discovered biased attribute is
identical with the target or one of the known-biased attributes. Extensive
experiments on both disentanglement datasets and real-world datasets show that
our method can discover biased attributes and achieve better disentanglement
w.r.t. target attributes. Furthermore, the qualitative results show that our
method can discover unnoticeable biased attributes for various object and scene
classifiers, proving our method's generalizability for detecting biased
attributes in diverse domains of images. The code is available at
https://git.io/J3kMh.
- Abstract(参考訳): 最近の研究によると、AIアルゴリズムはデータからバイアスを学ぶ。
したがって、AIアルゴリズムのバイアスを特定することは緊急かつ不可欠である。
しかし、以前のバイアス識別パイプラインは、人間の専門家が潜在的なバイアス(例えば性別)を推測することに依存している。
人間の専門家がAIアルゴリズムのバイアスをよりよく見つけるのを助けるために、この研究で新しい問題を研究する。入力画像のターゲット属性を予測する分類器で、その未知のバイアス属性を発見する。
この課題を解決するために、生成モデルの潜時空間における超平面を用いて画像属性を表現するため、原問題は超平面の正規ベクトルとオフセットを最適化するために変換される。
目的関数として,この枠組みにおける新しい全変量損失と制約としての新たな直交ペナルティを提案する。
後者は、発見されたバイアス属性がターゲットまたは既知のバイアス属性の1つと同一であるような自明な解を防止する。
不等角化データセットと実世界のデータセットの両方に関する広範囲な実験により、偏りのある属性を発見し、より良い不等角化 w.r.t。
ターゲット属性。
さらに, 画像の様々な領域におけるバイアス属性を検出するための手法の一般化性を証明し, 様々なオブジェクトやシーンの分類器に対して有意なバイアス属性を検出できることを示す。
コードはhttps://git.io/j3kmhで入手できる。
関連論文リスト
- Mitigating Bias Using Model-Agnostic Data Attribution [2.9868610316099335]
機械学習モデルにおけるバイアスの緩和は、公平性と公平性を保証するための重要な取り組みである。
本稿では, 画素画像の属性を利用して, バイアス属性を含む画像の領域を特定し, 正規化することで, バイアスに対処する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-08T13:00:56Z) - Extracting Human Attention through Crowdsourced Patch Labeling [18.947126675569667]
画像分類では、データセットのバイアスから重大な問題が生じる。
このようなバイアスを軽減する1つのアプローチは、モデルが対象物の位置に注意を向けることである。
本稿では,画像から人の注意を捉えるために,クラウドソーシングとAI支援を統合した新しいパッチラベル手法を提案する。
論文 参考訳(メタデータ) (2024-03-22T07:57:27Z) - Mitigating Algorithmic Bias on Facial Expression Recognition [0.0]
バイアス付きデータセットはユビキタスであり、機械学習の課題を提示している。
偏りのあるデータセットの問題は、少数民族グループを扱う際に特に敏感である。
本研究は, 表情認識実験による偏差変化型オートエンコーダを用いて, 偏差を緩和する方法の1つを探る。
論文 参考訳(メタデータ) (2023-12-23T17:41:30Z) - Causality and Independence Enhancement for Biased Node Classification [56.38828085943763]
各種グラフニューラルネットワーク(GNN)に適用可能な新しい因果性・独立性向上(CIE)フレームワークを提案する。
提案手法は,ノード表現レベルでの因果的特徴と突発的特徴を推定し,突発的相関の影響を緩和する。
我々のアプローチCIEは、GNNの性能を大幅に向上するだけでなく、最先端の debiased ノード分類法よりも優れています。
論文 参考訳(メタデータ) (2023-10-14T13:56:24Z) - Rethinking Bias Mitigation: Fairer Architectures Make for Fairer Face
Recognition [107.58227666024791]
顔認識システムは、法執行を含む安全クリティカルなアプリケーションに広くデプロイされている。
彼らは、性別や人種など、様々な社会的デデノグラフィー次元に偏見を示す。
バイアス軽減に関するこれまでの研究は、主にトレーニングデータの事前処理に重点を置いていた。
論文 参考訳(メタデータ) (2022-10-18T15:46:05Z) - Discover and Mitigate Unknown Biases with Debiasing Alternate Networks [42.89260385194433]
本稿では,Debiasing Alternate Networks (DebiAN)を提案する。
DebiANは、発見者によって特定されるバイアスをアンラーニングすることを目的としている。
従来の研究では、偏りを1つのバイアスで評価するが、マルチカラーMNISTデータセットを作成し、複数のバイアスのベンチマーク緩和を改善する。
論文 参考訳(メタデータ) (2022-07-20T17:59:51Z) - Semi-FairVAE: Semi-supervised Fair Representation Learning with
Adversarial Variational Autoencoder [92.67156911466397]
逆変分オートエンコーダに基づく半教師付き公正表現学習手法を提案する。
我々は、バイアス認識モデルを用いて、機密属性の固有バイアス情報をキャプチャする。
また、偏見のないモデルを用いて、対立学習を用いて偏見情報を取り除き、偏見のない公正表現を学習する。
論文 参考訳(メタデータ) (2022-04-01T15:57:47Z) - Explainable Deep Few-shot Anomaly Detection with Deviation Networks [123.46611927225963]
本稿では,弱い教師付き異常検出フレームワークを導入し,検出モデルを訓練する。
提案手法は,ラベル付き異常と事前確率を活用することにより,識別正規性を学習する。
我々のモデルはサンプル効率が高く頑健であり、クローズドセットとオープンセットの両方の設定において最先端の競合手法よりもはるかに優れている。
論文 参考訳(メタデータ) (2021-08-01T14:33:17Z) - Towards Learning an Unbiased Classifier from Biased Data via Conditional
Adversarial Debiasing [17.113618920885187]
本稿では,訓練画像のラベルに急激に結びついている特徴に対処する,新しい逆脱バイアス法を提案する。
我々は、上記の偏見に対する既存の手法よりも、我々のアプローチが優れているという数学的証明によって論じる。
実験の結果,本手法は猫や犬の実世界画像を用いたベンチマークデータセットにおいて,最先端技術よりも優れた性能を示すことがわかった。
論文 参考訳(メタデータ) (2021-03-10T16:50:42Z) - Towards causal benchmarking of bias in face analysis algorithms [54.19499274513654]
顔分析アルゴリズムのアルゴリズムバイアスを測定する実験手法を開発した。
提案手法は,一致したサンプル画像の合成トランスクター'を生成することに基づく。
性別分類アルゴリズムの偏見を従来の観察法を用いて分析することにより,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-07-13T17:10:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。