論文の概要: Exploring Biases and Prejudice of Facial Synthesis via Semantic Latent
Space
- arxiv url: http://arxiv.org/abs/2108.10265v1
- Date: Mon, 23 Aug 2021 16:09:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-24 16:44:44.829451
- Title: Exploring Biases and Prejudice of Facial Synthesis via Semantic Latent
Space
- Title(参考訳): 意味的潜在空間による顔合成のバイアスと偏見の探求
- Authors: Xuyang Shen, Jo Plested, Sabrina Caldwell, Tom Gedeon
- Abstract要約: この研究は、生成モデルの振る舞いをバイアス化し、バイアスの原因を特定し、それらを取り除くことを目的としている。
予想通り、偏りのあるデータが顔のフロンダル化モデルの偏りのある予測を引き起こすと結論付けることができる。
その結果、50:50の割合の明らかな選択は、このデータセットが女性の顔に偏った振る舞いを減らすのに最適ではないことがわかった。
- 参考スコア(独自算出の注目度): 1.858151490268935
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Deep learning (DL) models are widely used to provide a more convenient and
smarter life. However, biased algorithms will negatively influence us. For
instance, groups targeted by biased algorithms will feel unfairly treated and
even fearful of negative consequences of these biases. This work targets biased
generative models' behaviors, identifying the cause of the biases and
eliminating them. We can (as expected) conclude that biased data causes biased
predictions of face frontalization models. Varying the proportions of male and
female faces in the training data can have a substantial effect on behavior on
the test data: we found that the seemingly obvious choice of 50:50 proportions
was not the best for this dataset to reduce biased behavior on female faces,
which was 71% unbiased as compared to our top unbiased rate of 84%. Failure in
generation and generating incorrect gender faces are two behaviors of these
models. In addition, only some layers in face frontalization models are
vulnerable to biased datasets. Optimizing the skip-connections of the generator
in face frontalization models can make models less biased. We conclude that it
is likely to be impossible to eliminate all training bias without an unlimited
size dataset, and our experiments show that the bias can be reduced and
quantified. We believe the next best to a perfect unbiased predictor is one
that has minimized the remaining known bias.
- Abstract(参考訳): ディープラーニング(DL)モデルは、より便利でスマートな生活を提供するために広く利用されている。
しかし、偏りのあるアルゴリズムは我々に悪影響を与える。
例えば、偏見付きアルゴリズムを対象とするグループは不公平に扱われ、偏見によるネガティブな結果を恐れる。
この研究は、偏りのある生成モデルの振る舞いをターゲットとし、偏りの原因を特定し、それらを排除する。
予想通り、偏りのあるデータが顔の前面モデルの偏りのある予測を引き起こすと結論付けることができる。
トレーニングデータにおける男女の顔の比率の変化は、テストデータに対する行動にかなりの影響を与える可能性がある: 50:50パーセントという明らかな選択は、女性の顔に対する偏った行動を減らすためにこのデータセットにとって最良のものではないことが分かりました。
不正確な性面の生成と生成の失敗は、これらのモデルの2つの挙動である。
さらに、顔のフロントエンドモデルのいくつかのレイヤだけがバイアス付きデータセットに対して脆弱である。
フェースフロンダライゼーションモデルにおけるジェネレータのスキップ接続の最適化は、モデルのバイアスを軽減することができる。
無限大のデータセットを使わずに全てのトレーニングバイアスを除去することは不可能であると結論し、我々の実験はバイアスを減らし定量化できることを示した。
完璧な偏見のない予測器の次は、既知のバイアスを最小限にしたものだと私たちは信じています。
関連論文リスト
- Less can be more: representational vs. stereotypical gender bias in facial expression recognition [3.9698529891342207]
機械学習モデルは、トレーニングデータからバイアスを継承し、差別的または不正確な予測につながる。
本稿では、データセットから機械学習モデルへの人口統計バイアスの伝播について検討する。
ジェンダーの人口構成に焦点をあて、表現とステレオタイプという2種類の偏見を分析した。
論文 参考訳(メタデータ) (2024-06-25T09:26:49Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - The Impact of Debiasing on the Performance of Language Models in
Downstream Tasks is Underestimated [70.23064111640132]
我々は、幅広いベンチマークデータセットを用いて、複数の下流タスクのパフォーマンスに対するデバイアスの影響を比較した。
実験により、デバイアスの効果は全てのタスクにおいて一貫して見積もられていることが示されている。
論文 参考訳(メタデータ) (2023-09-16T20:25:34Z) - Targeted Data Augmentation for bias mitigation [0.0]
我々は、TDA(Targeted Data Augmentation)と呼ばれるバイアスに対処するための、新しく効率的なアプローチを導入する。
バイアスを除去する面倒な作業とは異なり、本手法は代わりにバイアスを挿入することを提案し、結果として性能が向上する。
偏見を特定するために,臨床皮膚病変のデータセットと男女の顔のデータセットの2つの多様なデータセットを注釈した。
論文 参考訳(メタデータ) (2023-08-22T12:25:49Z) - Rethinking Bias Mitigation: Fairer Architectures Make for Fairer Face
Recognition [107.58227666024791]
顔認識システムは、法執行を含む安全クリティカルなアプリケーションに広くデプロイされている。
彼らは、性別や人種など、様々な社会的デデノグラフィー次元に偏見を示す。
バイアス軽減に関するこれまでの研究は、主にトレーニングデータの事前処理に重点を置いていた。
論文 参考訳(メタデータ) (2022-10-18T15:46:05Z) - Gender Stereotyping Impact in Facial Expression Recognition [1.5340540198612824]
近年,機械学習に基づくモデルが表情認識(FER)における最も一般的なアプローチとなっている。
公開可能なFERデータセットでは、見かけ上の性別表現は概ねバランスが取れているが、個々のラベルでの性別表現はそうではない。
我々は、特定のラベルの性別比を変化させることで、異なる量のステレオタイプバイアスを持つ微分データセットを生成する。
我々は、最低バイアス条件下で、性別間の特定の感情の認識において、最大で29 % の差を観察する。
論文 参考訳(メタデータ) (2022-10-11T10:52:23Z) - Pseudo Bias-Balanced Learning for Debiased Chest X-ray Classification [57.53567756716656]
本研究では, バイアスラベルを正確に把握せず, 脱バイアス胸部X線診断モデルの開発について検討した。
本稿では,まずサンプルごとのバイアスラベルをキャプチャし,予測する新しいアルゴリズム,擬似バイアスバランス学習を提案する。
提案手法は他の最先端手法よりも一貫した改善を実現した。
論文 参考訳(メタデータ) (2022-03-18T11:02:18Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Towards Robustifying NLI Models Against Lexical Dataset Biases [94.79704960296108]
本稿では、語彙的データセットバイアスに対するモデル強化のための、データレベルとモデルレベルのデバイアス法の両方について検討する。
まず、データ拡張と拡張によってデータセットをデバイアスするが、この方法でモデルバイアスを完全に除去することはできないことを示す。
第2のアプローチでは、バーオブワードのサブモデルを使用して、バイアスを悪用する可能性のある機能をキャプチャし、元のモデルがこれらのバイアス付き機能を学ぶのを防ぐ。
論文 参考訳(メタデータ) (2020-05-10T17:56:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。