論文の概要: Towards Fair and Robust Face Parsing for Generative AI: A Multi-Objective Approach
- arxiv url: http://arxiv.org/abs/2502.04391v1
- Date: Thu, 06 Feb 2025 00:41:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-10 14:58:08.375849
- Title: Towards Fair and Robust Face Parsing for Generative AI: A Multi-Objective Approach
- Title(参考訳): 汎用AIのための公正かつロバストな顔解析に向けて:多目的的アプローチ
- Authors: Sophia J. Abraham, Jonathan D. Hauenstein, Walter J. Scheirer,
- Abstract要約: 顔解析における精度,公平性,堅牢性を最適化する多目的学習フレームワークを提案する。
以上の結果から,公平性に配慮したセグメンテーションにより,顔生成におけるフォトリアリズムと一貫性が向上することが示唆された。
以上の結果から,多目的顔解析が人口動態の整合性や頑健性を改善し,高品質なGAN合成を実現することが示唆された。
- 参考スコア(独自算出の注目度): 10.00430939898858
- License:
- Abstract: Face parsing is a fundamental task in computer vision, enabling applications such as identity verification, facial editing, and controllable image synthesis. However, existing face parsing models often lack fairness and robustness, leading to biased segmentation across demographic groups and errors under occlusions, noise, and domain shifts. These limitations affect downstream face synthesis, where segmentation biases can degrade generative model outputs. We propose a multi-objective learning framework that optimizes accuracy, fairness, and robustness in face parsing. Our approach introduces a homotopy-based loss function that dynamically adjusts the importance of these objectives during training. To evaluate its impact, we compare multi-objective and single-objective U-Net models in a GAN-based face synthesis pipeline (Pix2PixHD). Our results show that fairness-aware and robust segmentation improves photorealism and consistency in face generation. Additionally, we conduct preliminary experiments using ControlNet, a structured conditioning model for diffusion-based synthesis, to explore how segmentation quality influences guided image generation. Our findings demonstrate that multi-objective face parsing improves demographic consistency and robustness, leading to higher-quality GAN-based synthesis.
- Abstract(参考訳): 顔解析はコンピュータビジョンの基本課題であり、識別認証、顔の編集、制御可能な画像合成などの応用を可能にする。
しかし、既存の顔解析モデルは、しばしば公平さと堅牢さを欠いているため、人口集団間の偏りや、隠蔽、ノイズ、ドメインシフトによるエラーが生じる。
これらの制限は、セグメント化バイアスが生成モデル出力を劣化させることができる下流面合成に影響を及ぼす。
顔解析における精度,公平性,堅牢性を最適化する多目的学習フレームワークを提案する。
提案手法では,トレーニング中の目的の重要性を動的に調整するホモトピーに基づく損失関数を導入する。
その影響を評価するため、GANベースの顔合成パイプライン(Pix2PixHD)において、多目的と単目的のU-Netモデルを比較した。
この結果から, 公正性に配慮した, 堅牢なセグメンテーションにより, 顔生成におけるフォトリアリズムと一貫性が向上することが示唆された。
さらに,拡散合成のための構造化条件付けモデルであるControlNetを用いた予備実験を行い,セグメンテーション品質が誘導画像生成に与える影響について検討する。
以上の結果から,多目的顔解析が人口動態の整合性や頑健性を改善し,高品質なGAN合成を実現することが示唆された。
関連論文リスト
- Consistent Human Image and Video Generation with Spatially Conditioned Diffusion [82.4097906779699]
一貫性のある人中心画像とビデオ合成は、所定の参照画像との外観整合性を維持しつつ、新しいポーズを持つ画像を生成することを目的としている。
我々は,課題を空間条件付き塗装問題とみなし,対象画像をインペイントして参照との外観整合性を維持する。
このアプローチにより、参照機能により、統一された認知ネットワーク内でのポーズ準拠のターゲットの生成をガイドすることができる。
論文 参考訳(メタデータ) (2024-12-19T05:02:30Z) - Face Recognition Using Synthetic Face Data [0.0]
我々は、コンピュータグラフィックスパイプラインを介してデジタル顔のレンダリングによって生成された合成データの有望な応用を強調し、競争力のある結果を得る。
モデルを微調整することで、何十万もの実画像のトレーニングで得られた結果に匹敵する結果が得られる。
また,モデル性能に及ぼすクラス内因子(化粧品,アクセサリー,ヘアカットなど)の追加効果についても検討した。
論文 参考訳(メタデータ) (2023-05-17T09:26:10Z) - Fair SA: Sensitivity Analysis for Fairness in Face Recognition [1.7149364927872013]
汎用フレームワークの形で頑健性に基づく新しい公正性評価を提案する。
我々は、一般的な顔認識モデルの性能を分析し、画像が摂動状態にある場合、ある種のサブグループが不利であることを実証的に示す。
論文 参考訳(メタデータ) (2022-02-08T01:16:09Z) - Robust Attentive Deep Neural Network for Exposing GAN-generated Faces [40.15016121723183]
本稿では,GAN生成した顔の視線不整合を解析して検出できる,頑健で注意深いエンドツーエンドネットワークを提案する。
我々は,AUCの損失と従来のクロスエントロピーの損失を共同で考慮し,不均衡な学習問題に対処する。
論文 参考訳(メタデータ) (2021-09-05T21:22:39Z) - Heterogeneous Face Frontalization via Domain Agnostic Learning [74.86585699909459]
本研究では, 視覚領域における正面視を, ポーズのバリエーションで合成できるドメイン非依存学習型生成逆数ネットワーク(DAL-GAN)を提案する。
DAL-GANは、補助分類器を備えたジェネレータと、より優れた合成のために局所的およびグローバルなテクスチャ識別をキャプチャする2つの識別器から構成される。
論文 参考訳(メタデータ) (2021-07-17T20:41:41Z) - Identity-Aware CycleGAN for Face Photo-Sketch Synthesis and Recognition [61.87842307164351]
まず,画像生成ネットワークの監視に新たな知覚損失を適用したIACycleGAN(Identity-Aware CycleGAN)モデルを提案する。
眼や鼻などの重要な顔領域の合成により多くの注意を払うことで、フォトエッチング合成におけるサイクガンを改善する。
IACycleGANによる画像の合成を反復的に行う合成モデルと認識モデルとの相互最適化手法を開発した。
論文 参考訳(メタデータ) (2021-03-30T01:30:08Z) - Unsupervised Learning Facial Parameter Regressor for Action Unit
Intensity Estimation via Differentiable Renderer [51.926868759681014]
骨駆動型顔モデル(BDFM)に基づいて,異なる視点で顔パラメータを予測する枠組みを提案する。
提案するフレームワークは,特徴抽出器,ジェネレータ,顔パラメータ回帰器から構成される。
論文 参考訳(メタデータ) (2020-08-20T09:49:13Z) - InterFaceGAN: Interpreting the Disentangled Face Representation Learned
by GANs [73.27299786083424]
我々は、最先端のGANモデルによって学習された不整合顔表現を解釈するInterFaceGANというフレームワークを提案する。
まず、GANは潜在空間の線型部分空間で様々な意味学を学ぶ。
次に、異なる意味論間の相関関係について詳細な研究を行い、部分空間射影を通してそれらをよりよく解離させる。
論文 参考訳(メタデータ) (2020-05-18T18:01:22Z) - Dual-Attention GAN for Large-Pose Face Frontalization [59.689836951934694]
本稿では,フォトリアリスティック顔フロンダル化のためのDA-GAN(Dual-Attention Generative Adversarial Network)を提案する。
具体的には、ローカル機能と長距離依存関係を統合するために、自己アテンションベースのジェネレータが導入された。
顔領域の局所的特徴を強調するために,新しい顔認識に基づく識別器を適用した。
論文 参考訳(メタデータ) (2020-02-17T20:00:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。