論文の概要: TIBET: Identifying and Evaluating Biases in Text-to-Image Generative
Models
- arxiv url: http://arxiv.org/abs/2312.01261v1
- Date: Sun, 3 Dec 2023 02:31:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 18:18:34.071397
- Title: TIBET: Identifying and Evaluating Biases in Text-to-Image Generative
Models
- Title(参考訳): TIBET:テキスト・画像生成モデルにおけるバイアスの同定と評価
- Authors: Aditya Chinchure, Pushkar Shukla, Gaurav Bhatt, Kiri Salij, Kartik
Hosanagar, Leonid Sigal, Matthew Turk
- Abstract要約: 本稿では,任意のテキスト・ツー・イメージ(TTI)モデルと任意のプロンプトに対して,幅広いバイアススペクトルを研究・定量化するための一般的なアプローチを提案する。
我々の手法は、与えられたプロンプトに関連する可能性のある潜在的なバイアスを自動的に識別し、それらのバイアスを測定する。
本研究では,本手法が意味論的概念を通じて複雑な多次元バイアスを説明できることを示す。
- 参考スコア(独自算出の注目度): 23.18396000415575
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Text-to-Image (TTI) generative models have shown great progress in the past
few years in terms of their ability to generate complex and high-quality
imagery. At the same time, these models have been shown to suffer from harmful
biases, including exaggerated societal biases (e.g., gender, ethnicity), as
well as incidental correlations that limit such model's ability to generate
more diverse imagery. In this paper, we propose a general approach to study and
quantify a broad spectrum of biases, for any TTI model and for any prompt,
using counterfactual reasoning. Unlike other works that evaluate generated
images on a predefined set of bias axes, our approach automatically identifies
potential biases that might be relevant to the given prompt, and measures those
biases. In addition, our paper extends quantitative scores with post-hoc
explanations in terms of semantic concepts in the images generated. We show
that our method is uniquely capable of explaining complex multi-dimensional
biases through semantic concepts, as well as the intersectionality between
different biases for any given prompt. We perform extensive user studies to
illustrate that the results of our method and analysis are consistent with
human judgements.
- Abstract(参考訳): テキスト・ツー・イメージ(TTI)生成モデルは、複雑で高品質な画像を生成する能力において、ここ数年で大きな進歩を見せている。
同時に、これらのモデルは、誇張された社会バイアス(例えば、性別、民族性)や、モデルがより多様なイメージを生成する能力を制限する付随的な相関など、有害なバイアスに苦しむことが示されている。
本稿では,任意のttiモデルと任意のプロンプトに対して,反事実推論を用いて幅広いバイアススペクトルを研究し,定量化する一般的な手法を提案する。
事前定義されたバイアス軸上で生成された画像を評価する他の作品とは異なり、このアプローチは、与えられたプロンプトに関連する可能性のある潜在的なバイアスを自動的に識別し、それらのバイアスを測定する。
さらに,本論文では,画像のセマンティック概念の観点から,ポストホックな説明を伴う定量的スコアを拡張した。
提案手法は,任意のプロンプトに対して異なるバイアス間の交叉性だけでなく,意味概念を通じて複雑な多次元バイアスを一意的に説明できることを示す。
提案手法と分析の結果が人間の判断と一致していることを明らかにするため,広範なユーザ調査を行った。
関連論文リスト
- On the Fairness, Diversity and Reliability of Text-to-Image Generative Models [49.60774626839712]
マルチモーダル生成モデルは 彼らの公正さ、信頼性、そして誤用の可能性について 批判的な議論を呼んだ
組込み空間における摂動に対する応答を通じてモデルの信頼性を評価するための評価フレームワークを提案する。
本手法は, 信頼できない, バイアス注入されたモデルを検出し, バイアス前駆体の検索を行うための基礎となる。
論文 参考訳(メタデータ) (2024-11-21T09:46:55Z) - GradBias: Unveiling Word Influence on Bias in Text-to-Image Generative Models [75.04426753720553]
開集合におけるバイアスを特定し,定量化し,説明するための枠組みを提案する。
このパイプラインはLarge Language Model (LLM)を活用して、一連のキャプションから始まるバイアスを提案する。
このフレームワークには、OpenBiasとGradBiasの2つのバリエーションがあります。
論文 参考訳(メタデータ) (2024-08-29T16:51:07Z) - Gender Bias Evaluation in Text-to-image Generation: A Survey [25.702257177921048]
テキスト・ツー・イメージ・ジェネレーションにおけるジェンダーバイアス評価に関する最近の研究についてレビューする。
安定拡散やDALL-E 2といった最近の人気モデルの評価に焦点をあてる。
論文 参考訳(メタデータ) (2024-08-21T06:01:23Z) - Analyzing Quality, Bias, and Performance in Text-to-Image Generative Models [0.0]
生成モデルの発展にもかかわらず、ほとんどの研究はバイアスの存在を無視している。
本稿では,人間の顔,グループ,特定対象物の正確な画像を生成する上で,その性能を定性的に評価するだけでなく,社会的バイアス分析を行うことにより,複数のテキスト・画像モデルについて検討する。
期待通り、より大きな能力を持つモデルは、高品質な画像を生成する。しかし、これらのモデルが持つ固有の性別や社会的バイアスも文書化しており、それらの影響と限界をより完全に理解している。
論文 参考訳(メタデータ) (2024-06-28T14:10:42Z) - DiffusionPID: Interpreting Diffusion via Partial Information Decomposition [24.83767778658948]
入力テキストプロンプトを基本成分に分解するために,情報理論の原理を適用した。
個々のトークンとその相互作用が生成した画像をどのように形成するかを分析する。
PIDはテキスト・画像拡散モデルの評価と診断のための強力なツールであることを示す。
論文 参考訳(メタデータ) (2024-06-07T18:17:17Z) - MIST: Mitigating Intersectional Bias with Disentangled Cross-Attention Editing in Text-to-Image Diffusion Models [3.3454373538792552]
本稿では,拡散型テキスト・画像モデルにおける交叉バイアスに対処する手法を提案する。
提案手法では,事前学習した安定拡散モデルを用いて,参照画像の追加の必要性を排除し,未修正概念の本来の品質を維持する。
論文 参考訳(メタデータ) (2024-03-28T17:54:38Z) - Quantifying Bias in Text-to-Image Generative Models [49.60774626839712]
テキスト・トゥ・イメージ(T2I)モデルにおけるバイアスは不公平な社会的表現を伝播させ、アイデアを積極的にマーケティングしたり、議論の的となっている議題を推進したりするのに用いられる。
既存のT2Iモデルバイアス評価手法は、社会的バイアスのみに焦点を当てる。
本稿では,T2I生成モデルにおける一般バイアスの定量化手法を提案する。
論文 参考訳(メタデータ) (2023-12-20T14:26:54Z) - ITI-GEN: Inclusive Text-to-Image Generation [56.72212367905351]
本研究では,人書きプロンプトに基づいて画像を生成する包括的テキスト・画像生成モデルについて検討する。
いくつかの属性に対して、画像はテキストよりも概念を表現的に表現できることを示す。
Inclusive Text-to- Image GENeration に容易に利用可能な参照画像を活用する新しいアプローチ ITI-GEN を提案する。
論文 参考訳(メタデータ) (2023-09-11T15:54:30Z) - Auditing Gender Presentation Differences in Text-to-Image Models [54.16959473093973]
我々は、テキスト・ツー・イメージ・モデルにおいて、ジェンダーがどのように異なる形で提示されるかを研究する。
入力テキスト中の性指標を探索することにより、プレゼンテーション中心属性の周波数差を定量化する。
このような違いを推定する自動手法を提案する。
論文 参考訳(メタデータ) (2023-02-07T18:52:22Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。