論文の概要: De-biasing facial detection system using VAE
- arxiv url: http://arxiv.org/abs/2204.09556v1
- Date: Sat, 16 Apr 2022 11:24:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-21 13:10:29.540138
- Title: De-biasing facial detection system using VAE
- Title(参考訳): VAEを用いた脱バイアス顔検出システム
- Authors: Vedant V. Kandge, Siddhant V. Kandge, Kajal Kumbharkar, Prof. Tanuja
Pattanshetti
- Abstract要約: AI/MLベースのシステムのバイアスはユビキタスな問題であり、AI/MLシステムのバイアスは社会に悪影響を及ぼす可能性がある。
提案手法は,基礎となる特徴を学習するのに最適な生成モデルを用いている。
アルゴリズムの助けを借りて、データセットに存在するバイアスを取り除くことができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bias in AI/ML-based systems is a ubiquitous problem and bias in AI/ML systems
may negatively impact society. There are many reasons behind a system being
biased. The bias can be due to the algorithm we are using for our problem or
may be due to the dataset we are using, having some features over-represented
in it. In the face detection system bias due to the dataset is majorly seen.
Sometimes models learn only features that are over-represented in data and
ignore rare features from data which results in being biased toward those
over-represented features. In real life, these biased systems are dangerous to
society. The proposed approach uses generative models which are best suited for
learning underlying features(latent variables) from the dataset and by using
these learned features models try to reduce the threats which are there due to
bias in the system. With the help of an algorithm, the bias present in the
dataset can be removed. And then we train models on two datasets and compare
the results.
- Abstract(参考訳): AI/MLベースのシステムのバイアスはユビキタスな問題であり、AI/MLシステムのバイアスは社会に悪影響を及ぼす可能性がある。
システムのバイアスには多くの理由があります。
バイアスは、私たちが問題に使用しているアルゴリズムによるものかもしれませんし、使用しているデータセットによるものかも知れません。
顔検出システムでは、データセットによるバイアスが主に見られる。
モデルでは、データで過剰に表現された機能のみを学習し、過剰に表現された機能に偏った結果、データから稀な機能を無視します。
現実では、これらの偏りのあるシステムは社会にとって危険です。
提案手法は、データセットから基礎となる特徴(遅延変数)を学習するのに最適な生成モデルを使用し、これらの学習された特徴モデルを使用することで、システムのバイアスによる脅威を減らす。
アルゴリズムの助けを借りて、データセットに存在するバイアスを取り除くことができる。
そして、2つのデータセットでモデルをトレーニングし、結果を比較します。
関連論文リスト
- Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Rethinking Bias Mitigation: Fairer Architectures Make for Fairer Face
Recognition [107.58227666024791]
顔認識システムは、法執行を含む安全クリティカルなアプリケーションに広くデプロイされている。
彼らは、性別や人種など、様々な社会的デデノグラフィー次元に偏見を示す。
バイアス軽減に関するこれまでの研究は、主にトレーニングデータの事前処理に重点を置いていた。
論文 参考訳(メタデータ) (2022-10-18T15:46:05Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Assessing Demographic Bias Transfer from Dataset to Model: A Case Study
in Facial Expression Recognition [1.5340540198612824]
2つのメトリクスはデータセットの表現バイアスとステレオタイプバイアスに焦点をあて、もう1つはトレーニングされたモデルの残差バイアスに焦点を当てている。
本稿では、一般的なAffectnetデータセットに基づくFER問題に適用することで、メトリクスの有用性を示す。
論文 参考訳(メタデータ) (2022-05-20T09:40:42Z) - Pseudo Bias-Balanced Learning for Debiased Chest X-ray Classification [57.53567756716656]
本研究では, バイアスラベルを正確に把握せず, 脱バイアス胸部X線診断モデルの開発について検討した。
本稿では,まずサンプルごとのバイアスラベルをキャプチャし,予測する新しいアルゴリズム,擬似バイアスバランス学習を提案する。
提案手法は他の最先端手法よりも一貫した改善を実現した。
論文 参考訳(メタデータ) (2022-03-18T11:02:18Z) - Towards Measuring Bias in Image Classification [61.802949761385]
畳み込みニューラルネットワーク(CNN)は、主要なコンピュータビジョンタスクの最先端技術となっている。
しかし、複雑な構造のため、その決定は産業世界の何らかの文脈での使用を制限するかを理解することは困難である。
帰属マップによるデータのバイアスを明らかにするための体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-07-01T10:50:39Z) - AutoDebias: Learning to Debias for Recommendation [43.84313723394282]
今回提案するtextitAotoDebiasは、他の(小さな)均一なデータセットを利用してデバイアスパラメータを最適化する。
我々は、AutoDebiasの一般化を導き、適切なデバイアス戦略を得る能力を証明する。
論文 参考訳(メタデータ) (2021-05-10T08:03:48Z) - Towards Robustifying NLI Models Against Lexical Dataset Biases [94.79704960296108]
本稿では、語彙的データセットバイアスに対するモデル強化のための、データレベルとモデルレベルのデバイアス法の両方について検討する。
まず、データ拡張と拡張によってデータセットをデバイアスするが、この方法でモデルバイアスを完全に除去することはできないことを示す。
第2のアプローチでは、バーオブワードのサブモデルを使用して、バイアスを悪用する可能性のある機能をキャプチャし、元のモデルがこれらのバイアス付き機能を学ぶのを防ぐ。
論文 参考訳(メタデータ) (2020-05-10T17:56:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。