論文の概要: FairFaceGAN: Fairness-aware Facial Image-to-Image Translation
- arxiv url: http://arxiv.org/abs/2012.00282v2
- Date: Wed, 2 Dec 2020 05:38:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-30 19:51:53.926524
- Title: FairFaceGAN: Fairness-aware Facial Image-to-Image Translation
- Title(参考訳): FairFaceGAN:Fairness-Aware Facial Image-to- Image Translation
- Authors: Sunhee Hwang, Sungho Park, Dohyung Kim, Mirae Do, Hyeran Byun
- Abstract要約: フェアネスを意識した顔画像変換モデルであるFairFaceGANを紹介する。
これは、顔属性編集中の保護属性(性別、年齢、人種など)における不要な翻訳の問題を緩和する。
本稿では,Frechet Protected Attribute Distance (FPAD) と呼ばれる,保護属性の保存度を計測する新たなフェアネス尺度を提案する。
- 参考スコア(独自算出の注目度): 15.982608892542688
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce FairFaceGAN, a fairness-aware facial
Image-to-Image translation model, mitigating the problem of unwanted
translation in protected attributes (e.g., gender, age, race) during facial
attributes editing. Unlike existing models, FairFaceGAN learns fair
representations with two separate latents - one related to the target
attributes to translate, and the other unrelated to them. This strategy enables
FairFaceGAN to separate the information about protected attributes and that of
target attributes. It also prevents unwanted translation in protected
attributes while target attributes editing. To evaluate the degree of fairness,
we perform two types of experiments on CelebA dataset. First, we compare the
fairness-aware classification performances when augmenting data by existing
image translation methods and FairFaceGAN respectively. Moreover, we propose a
new fairness metric, namely Frechet Protected Attribute Distance (FPAD), which
measures how well protected attributes are preserved. Experimental results
demonstrate that FairFaceGAN shows consistent improvements in terms of fairness
over the existing image translation models. Further, we also evaluate image
translation performances, where FairFaceGAN shows competitive results, compared
to those of existing methods.
- Abstract(参考訳): 本稿では,顔属性編集における保護属性(性別,年齢,人種など)の不要な翻訳問題を緩和する,フェアネスを意識した顔画像から画像への翻訳モデルfairfaceganを提案する。
既存のモデルとは異なり、fairfaceganは2つの異なる潜在子を持つフェア表現を学習する。
この戦略により、FairFaceGANは保護属性とターゲット属性に関する情報を分離することができる。
また、ターゲット属性の編集中に保護属性の不要な翻訳を防ぐ。
公平性を評価するため,celebaデータセット上で2種類の実験を行った。
まず,既存の画像翻訳手法とFairFaceGANによるデータ拡張時の公平性を考慮した分類性能を比較した。
さらに,Frechet Protected Attribute Distance (FPAD) と呼ばれる,保護属性の保存性を評価する新しいフェアネス尺度を提案する。
実験により、FairFaceGANは既存の画像翻訳モデルよりも公平性において一貫した改善を示した。
さらに、FairFaceGANが既存の手法と比較して競合する結果を示す画像翻訳性能も評価する。
関連論文リスト
- Distributionally Generative Augmentation for Fair Facial Attribute Classification [69.97710556164698]
Facial Attribute Classification (FAC) は広く応用されている。
従来の手法で訓練されたFACモデルは、様々なデータサブポピュレーションにまたがる精度の不整合を示すことによって不公平である可能性がある。
本研究は,付加アノテーションなしでバイアスデータ上で公正なFACモデルをトレーニングするための,新しい世代ベースの2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-11T10:50:53Z) - When StyleGAN Meets Stable Diffusion: a $\mathscr{W}_+$ Adapter for
Personalized Image Generation [60.305112612629465]
テキストと画像の拡散モデルは、多種多様で高品質でフォトリアリスティックな画像を生成するのに優れている。
本稿では,拡散モデルのための拡張されたアイデンティティ保存とアンタングル化を実現するために,StyleGAN 埋め込み空間 $mathcalW_+$ の新たな利用法を提案する。
提案手法は,即時記述に適合するだけでなく,一般的なスタイルGAN編集方向に対応可能なパーソナライズされたテキスト・ツー・イメージ出力を生成する。
論文 参考訳(メタデータ) (2023-11-29T09:05:14Z) - Improving Fairness using Vision-Language Driven Image Augmentation [60.428157003498995]
公平性は、特に顔領域において、ディープラーニングの識別モデルを訓練する際に重要である。
モデルは、特定の特性(年齢や肌の色など)と無関係な属性(下流タスク)を関連付ける傾向がある
本稿では,これらの相関を緩和し,公平性を向上する手法を提案する。
論文 参考訳(メタデータ) (2023-11-02T19:51:10Z) - DeAR: Debiasing Vision-Language Models with Additive Residuals [5.672132510411465]
大規模な事前学習型視覚言語モデル(VLM)は、リッチで適応可能な画像とテキスト表現を提供する。
これらのモデルは、トレーニングデータ中の様々なアイデンティティ群が歪んだ分布のため、社会的バイアスに悩まされる。
本稿では,元の表現をオフセットする付加的残像表現を学習する新しいデバイアス法であるDeARを提案する。
論文 参考訳(メタデータ) (2023-03-18T14:57:43Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - COFFEE: Counterfactual Fairness for Personalized Text Generation in
Explainable Recommendation [56.520470678876656]
ユーザ記述テキストに固有のバイアスは、言語品質の異なるレベルとユーザの保護された属性を関連付けることができる。
説明生成における測度特異的な対実的公正性を実現するための一般的な枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-14T02:29:10Z) - Explaining Bias in Deep Face Recognition via Image Characteristics [9.569575076277523]
2つのデータセットのセキュリティとユーザビリティの観点から,10種類の最先端の顔認識モデルを評価し,その妥当性を比較した。
次に,画像特性がモデル性能に与える影響を解析する。
論文 参考訳(メタデータ) (2022-08-23T17:18:23Z) - Asymmetric Modality Translation For Face Presentation Attack Detection [55.09300842243827]
顔提示攻撃検出(PAD)は、悪意のあるユーザによって顔認識システムが偽造されるのを防ぐための重要な手段である。
両モードシナリオにおける非対称なモダリティ変換に基づく新しいフレームワークを提案する。
本手法は,異なる評価プロトコル下での最先端性能を実現する。
論文 参考訳(メタデータ) (2021-10-18T08:59:09Z) - S2FGAN: Semantically Aware Interactive Sketch-to-Face Translation [11.724779328025589]
本稿では,S2FGANと呼ばれるスケッチ・ツー・イメージ生成フレームワークを提案する。
我々は2つの潜在空間を用いて顔の外観を制御し、生成した顔の所望の属性を調整する。
提案手法は,属性強度の制御性を高めることで,属性操作における最先端の手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2020-11-30T13:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。