論文の概要: Bias Analysis in Unconditional Image Generative Models
- arxiv url: http://arxiv.org/abs/2506.09106v1
- Date: Tue, 10 Jun 2025 16:53:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:01.746165
- Title: Bias Analysis in Unconditional Image Generative Models
- Title(参考訳): 非条件画像生成モデルにおけるバイアス解析
- Authors: Xiaofeng Zhang, Michelle Lin, Simon Lacoste-Julien, Aaron Courville, Yash Goyal,
- Abstract要約: 我々は、条件のない画像生成モデルを訓練し、トレーニングと生成された分布の間のバイアスシフトを研究するために一般的に使用されるバイアス評価フレームワークを採用する。
実験の結果,検出された属性シフトは小さいことがわかった。
属性シフトは、特に高密度領域における決定境界が低下した場合に、評価フレームワークで生成された画像のラベル付けに使用される属性分類器に敏感であることが判明した。
- 参考スコア(独自算出の注目度): 21.530188920526843
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The widespread adoption of generative AI models has raised growing concerns about representational harm and potential discriminatory outcomes. Yet, despite growing literature on this topic, the mechanisms by which bias emerges - especially in unconditional generation - remain disentangled. We define the bias of an attribute as the difference between the probability of its presence in the observed distribution and its expected proportion in an ideal reference distribution. In our analysis, we train a set of unconditional image generative models and adopt a commonly used bias evaluation framework to study bias shift between training and generated distributions. Our experiments reveal that the detected attribute shifts are small. We find that the attribute shifts are sensitive to the attribute classifier used to label generated images in the evaluation framework, particularly when its decision boundaries fall in high-density regions. Our empirical analysis indicates that this classifier sensitivity is often observed in attributes values that lie on a spectrum, as opposed to exhibiting a binary nature. This highlights the need for more representative labeling practices, understanding the shortcomings through greater scrutiny of evaluation frameworks, and recognizing the socially complex nature of attributes when evaluating bias.
- Abstract(参考訳): 生成的AIモデルの普及により、表現的害と潜在的な差別的結果に対する関心が高まっている。
しかし、この話題に関する文献が増えているにもかかわらず、バイアスが現れるメカニズム(特に無条件世代)はいまだに混乱している。
本研究では, 属性のバイアスを, 観測された分布における存在確率と, 理想的な基準分布における期待比との差として定義する。
本分析では,無条件画像生成モデルのセットをトレーニングし,一般に使用されているバイアス評価フレームワークを用いて,トレーニングと生成された分布間のバイアスシフトを研究する。
実験の結果,検出された属性シフトは小さいことがわかった。
属性シフトは、特に高密度領域における決定境界が低下した場合に、評価フレームワークで生成された画像のラベル付けに使用される属性分類器に敏感であることが判明した。
我々の経験的分析は、この分類器の感度が二項性を示すのとは対照的にスペクトル上に存在する属性値でしばしば観察されることを示している。
これは、より代表的なラベル付けのプラクティスの必要性を強調し、評価フレームワークのより深い精査を通じて欠点を理解し、バイアスを評価する際に属性の社会的に複雑な性質を認識する。
関連論文リスト
- A Feature-level Bias Evaluation Framework for Facial Expression Recognition Models [0.0]
我々は,偏り評価結果の統計的意義を保証するために,プラグアンドプレイ統計モジュールを導入する。
次に、包括的なバイアス分析を、3つのセンシティブな属性(年齢、性別、人種)、7つの表情、大規模データセット上の複数のネットワークアーキテクチャで実施する。
論文 参考訳(メタデータ) (2025-05-26T20:26:07Z) - Bias Begets Bias: The Impact of Biased Embeddings on Diffusion Models [0.0]
テキスト・トゥ・イメージ(TTI)システムは、社会的偏見に対する精査が増加している。
組込み空間をTTIモデルのバイアス源として検討する。
CLIPのような偏りのあるマルチモーダル埋め込みは、表現バランスの取れたTTIモデルに対して低いアライメントスコアをもたらす。
論文 参考訳(メタデータ) (2024-09-15T01:09:55Z) - Utilizing Adversarial Examples for Bias Mitigation and Accuracy Enhancement [3.0820287240219795]
本稿では,コンピュータビジョンモデルにおけるバイアスを軽減するための新しい手法を提案する。
提案手法は,カリキュラム学習フレームワークと詳細な逆数損失を組み合わせることで,逆数例を用いてモデルを微調整する。
我々は,定性評価と定量的評価を併用し,従来の方法と比較してバイアス緩和と精度の向上を実証した。
論文 参考訳(メタデータ) (2024-04-18T00:41:32Z) - Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - Leveraging vision-language models for fair facial attribute classification [19.93324644519412]
汎用視覚言語モデル(英: General-purpose Vision-Language Model, VLM)は、共通感性属性のための豊富な知識源である。
我々は,VLM予測値と人間定義属性分布の対応関係を解析した。
複数のベンチマークの顔属性分類データセットの実験は、既存の教師なしベースラインよりもモデルの公平性の向上を示している。
論文 参考訳(メタデータ) (2024-03-15T18:37:15Z) - Variational Classification [51.2541371924591]
我々は,変分オートエンコーダの訓練に用いるエビデンスローバウンド(ELBO)に類似した,モデルの訓練を目的とした変分目的を導出する。
軟質マックス層への入力を潜伏変数のサンプルとして扱うことで, 抽象化された視点から, 潜在的な矛盾が明らかとなった。
我々は、標準ソフトマックス層に見られる暗黙の仮定の代わりに、選択された潜在分布を誘導する。
論文 参考訳(メタデータ) (2023-05-17T17:47:19Z) - Self-supervised debiasing using low rank regularization [59.84695042540525]
純粋な相関は、ディープニューラルネットワークの強いバイアスを引き起こし、一般化能力を損なう可能性がある。
ラベルのないサンプルと互換性のある自己監督型脱バイアスフレームワークを提案する。
注目すべきは,提案フレームワークが自己教師付き学習ベースラインの一般化性能を著しく向上させることである。
論文 参考訳(メタデータ) (2022-10-11T08:26:19Z) - Causal Transportability for Visual Recognition [70.13627281087325]
画像とラベルの関連性は、設定間では転送できないため、標準分類器がフェールすることを示す。
次に、すべての共起源を摂食する因果効果が、ドメイン間で不変であることを示す。
これにより、画像分類における因果効果を推定するアルゴリズムを開発する動機付けとなる。
論文 参考訳(メタデータ) (2022-04-26T15:02:11Z) - Semi-FairVAE: Semi-supervised Fair Representation Learning with
Adversarial Variational Autoencoder [92.67156911466397]
逆変分オートエンコーダに基づく半教師付き公正表現学習手法を提案する。
我々は、バイアス認識モデルを用いて、機密属性の固有バイアス情報をキャプチャする。
また、偏見のないモデルを用いて、対立学習を用いて偏見情報を取り除き、偏見のない公正表現を学習する。
論文 参考訳(メタデータ) (2022-04-01T15:57:47Z) - Investigating Bias in Image Classification using Model Explanations [0.0]
モデル説明が識別特徴を強調することで画像分類のバイアスを効率的に検出できるかどうかを評価する。
バイアス検出の重要な特徴を定式化し,モデルのバイアスの程度が変化するにつれて説明がどのように変化するかを観察した。
論文 参考訳(メタデータ) (2020-12-10T05:27:49Z) - LOGAN: Local Group Bias Detection by Clustering [86.38331353310114]
コーパスレベルでバイアスを評価することは、モデルにバイアスがどのように埋め込まれているかを理解するのに十分ではない、と我々は主張する。
クラスタリングに基づく新しいバイアス検出手法であるLOGANを提案する。
毒性分類および対象分類タスクの実験は、LOGANが局所領域のバイアスを特定することを示している。
論文 参考訳(メタデータ) (2020-10-06T16:42:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。