論文の概要: On Measuring Fairness in Generative Models
- arxiv url: http://arxiv.org/abs/2310.19297v1
- Date: Mon, 30 Oct 2023 06:33:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 21:21:23.084699
- Title: On Measuring Fairness in Generative Models
- Title(参考訳): 生成モデルにおける公平性の測定について
- Authors: Christopher T. H. Teo, Milad Abdollahzadeh, Ngai-Man Cheung
- Abstract要約: フェアネス測定は、フェアジェネレーションモデルにおいて、ゲージの進行に重要な要素である。
まず,既存の公正度測定フレームワークにかなりの測定誤差があることを明らかにする。
第2に, クラシファイア・エラー・アウェア計測(CLEAM)を提案する。これは統計モデルを用いて, SA分類器の不正確さを推定する新しいフレームワークである。
第3に,CLEAMを用いて重要なテキスト・画像生成器とGANの公平性を計測し,これらのモデルにかなりのバイアスを生じさせ,それらのアプリケーションに対する懸念を提起する。
- 参考スコア(独自算出の注目度): 34.60559158144174
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, there has been increased interest in fair generative models. In
this work, we conduct, for the first time, an in-depth study on fairness
measurement, a critical component in gauging progress on fair generative
models. We make three contributions. First, we conduct a study that reveals
that the existing fairness measurement framework has considerable measurement
errors, even when highly accurate sensitive attribute (SA) classifiers are
used. These findings cast doubts on previously reported fairness improvements.
Second, to address this issue, we propose CLassifier Error-Aware Measurement
(CLEAM), a new framework which uses a statistical model to account for
inaccuracies in SA classifiers. Our proposed CLEAM reduces measurement errors
significantly, e.g., 4.98% $\rightarrow$ 0.62% for StyleGAN2 w.r.t. Gender.
Additionally, CLEAM achieves this with minimal additional overhead. Third, we
utilize CLEAM to measure fairness in important text-to-image generator and
GANs, revealing considerable biases in these models that raise concerns about
their applications. Code and more resources:
https://sutd-visual-computing-group.github.io/CLEAM/.
- Abstract(参考訳): 近年,公平な生成モデルへの関心が高まっている。
本研究は, フェアネス測定の詳細な研究を初めて行い, 公正な生成モデルにおいて, ゲージングの進行に重要な要素となる。
我々は3つの貢献をした。
まず,高精度な属性分類器(SA)を用いた場合においても,既存の公正度測定フレームワークにかなりの測定誤差があることを明らかにする。
これらの結果は、以前報告された公平性の改善に疑問を投げかけた。
第2に, クラシファイア・エラー・アウェア計測(CLEAM)を提案する。これは統計モデルを用いて, SA分類器の不正確さを推定する新しいフレームワークである。
提案したCLEAMは,StyleGAN2 w.r.t. Genderの4.98%$\rightarrowを0.62%削減する。
さらに、CLEAMは最小限の追加オーバーヘッドでこれを達成する。
第3に,CLEAMを用いて重要なテキスト・画像生成器とGANの公平性を計測し,これらのモデルにかなりのバイアスを生じさせ,それらのアプリケーションに対する懸念を提起する。
コードとより多くのリソース: https://sutd-visual-computing-group.github.io/cleam/
関連論文リスト
- Large Language Models Must Be Taught to Know What They Don't Know [97.90008709512921]
正解と誤解の小さなデータセットを微調整すると、高い一般化と計算オーバーヘッドの少ない不確実性推定が得られることを示す。
また,確実な不確実性推定を可能にする機構についても検討し,多くのモデルを汎用的不確実性推定器として利用することができることを示した。
論文 参考訳(メタデータ) (2024-06-12T16:41:31Z) - Distributionally Generative Augmentation for Fair Facial Attribute Classification [69.97710556164698]
Facial Attribute Classification (FAC) は広く応用されている。
従来の手法で訓練されたFACモデルは、様々なデータサブポピュレーションにまたがる精度の不整合を示すことによって不公平である可能性がある。
本研究は,付加アノテーションなしでバイアスデータ上で公正なFACモデルをトレーニングするための,新しい世代ベースの2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-11T10:50:53Z) - Calibrating Large Language Models with Sample Consistency [76.23956851098598]
本稿では,複数サンプルモデル生成系の分布から信頼度を導出する可能性について,一貫性の3つの尺度を用いて検討する。
その結果、一貫性に基づくキャリブレーション手法は、既存のポストホック手法よりも優れていることがわかった。
種々のLMの特性に合わせて,キャリブレーションに適した整合性指標を選択するための実用的なガイダンスを提供する。
論文 参考訳(メタデータ) (2024-02-21T16:15:20Z) - Fairness-Aware Structured Pruning in Transformers [14.439885480035324]
本研究では,事前学習した言語モデルにおける注意が公平性とパフォーマンスに与える影響について検討する。
本稿では,パフォーマンスに重要な頭部を維持しつつ,公平性に悪影響を及ぼすような注意を喚起する新しい手法を提案する。
以上の結果から, DistilGPT-2, GPT-2, GPT-Neo, Llama 2モデルでは, 性別バイアスが19%, 19.5%, 39.5%, 34.7%, 23%, 8%減少した。
論文 参考訳(メタデータ) (2023-12-24T03:57:52Z) - Toward Fair Facial Expression Recognition with Improved Distribution
Alignment [19.442685015494316]
本稿では,表情認識(FER)モデルにおけるバイアスを軽減する新しい手法を提案する。
本手法は、FERモデルによる埋め込みにおいて、性別、年齢、人種などの機密属性情報を低減することを目的としている。
ferモデルにおいて、魅力の概念を重要な感度属性として分析し、FERモデルがより魅力的な顔に対するバイアスを実際に示できることを実証する。
論文 参考訳(メタデータ) (2023-06-11T14:59:20Z) - Label-Retrieval-Augmented Diffusion Models for Learning from Noisy
Labels [61.97359362447732]
ノイズの多いラベルからの学習は、実際のアプリケーションのための機械学習において、重要かつ長年にわたる問題である。
本稿では,生成モデルの観点からラベルノイズ問題を再構成する。
我々のモデルは、標準的な実世界のベンチマークデータセットで新しいSOTA(State-of-the-art)結果を達成する。
論文 参考訳(メタデータ) (2023-05-31T03:01:36Z) - Fairness Reprogramming [42.65700878967251]
モデル再プログラミング手法を取り入れたFairRe Programと呼ばれる新しい汎用フェアネス学習パラダイムを提案する。
具体的には、FairRe Programはモデルを変更することができず、フェアネストリガと呼ばれる一連の摂動を入力に追加するケースについて検討している。
我々は,固定MLモデルの出力予測において,公平性トリガが効果的に人口統計バイアスを曖昧にすることができることを理論的および実証的に示す。
論文 参考訳(メタデータ) (2022-09-21T09:37:00Z) - Developing a novel fair-loan-predictor through a multi-sensitive
debiasing pipeline: DualFair [2.149265948858581]
我々は、DualFairと呼ばれる新しいバイアス緩和手法を作成し、MSPSOを扱える新しい公正度指標(すなわち、AWI)を開発する。
我々は、米国住宅ローンの包括的データセットを用いて、新しい緩和手法を検証し、我々の分類器、すなわち公正貸付予測器が、現在の最先端モデルよりも優れた公正度と精度の指標を得ることを示す。
論文 参考訳(メタデータ) (2021-10-17T23:13:43Z) - Newer is not always better: Rethinking transferability metrics, their
peculiarities, stability and performance [5.650647159993238]
小さなカスタマイズされたデータセット上で、大規模で事前訓練された画像と言語モデルの微調整が人気を集めている。
共分散推定における統計的問題により,Hスコアの性能が低下することが示唆された。
そこで我々は,そのような設定における相対的精度に対する相関性能を補正し,評価することを推奨する。
論文 参考訳(メタデータ) (2021-10-13T17:24:12Z) - The Generalized Lasso with Nonlinear Observations and Generative Priors [63.541900026673055]
我々は、幅広い測定モデルで満たされるガウス下測度を仮定する。
この結果から, 局所埋込特性を仮定して, 均一回復保証まで拡張できることが示唆された。
論文 参考訳(メタデータ) (2020-06-22T16:43:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。