論文の概要: TIBET: Identifying and Evaluating Biases in Text-to-Image Generative
Models
- arxiv url: http://arxiv.org/abs/2312.01261v1
- Date: Sun, 3 Dec 2023 02:31:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 18:18:34.071397
- Title: TIBET: Identifying and Evaluating Biases in Text-to-Image Generative
Models
- Title(参考訳): TIBET:テキスト・画像生成モデルにおけるバイアスの同定と評価
- Authors: Aditya Chinchure, Pushkar Shukla, Gaurav Bhatt, Kiri Salij, Kartik
Hosanagar, Leonid Sigal, Matthew Turk
- Abstract要約: 本稿では,任意のテキスト・ツー・イメージ(TTI)モデルと任意のプロンプトに対して,幅広いバイアススペクトルを研究・定量化するための一般的なアプローチを提案する。
我々の手法は、与えられたプロンプトに関連する可能性のある潜在的なバイアスを自動的に識別し、それらのバイアスを測定する。
本研究では,本手法が意味論的概念を通じて複雑な多次元バイアスを説明できることを示す。
- 参考スコア(独自算出の注目度): 23.18396000415575
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Text-to-Image (TTI) generative models have shown great progress in the past
few years in terms of their ability to generate complex and high-quality
imagery. At the same time, these models have been shown to suffer from harmful
biases, including exaggerated societal biases (e.g., gender, ethnicity), as
well as incidental correlations that limit such model's ability to generate
more diverse imagery. In this paper, we propose a general approach to study and
quantify a broad spectrum of biases, for any TTI model and for any prompt,
using counterfactual reasoning. Unlike other works that evaluate generated
images on a predefined set of bias axes, our approach automatically identifies
potential biases that might be relevant to the given prompt, and measures those
biases. In addition, our paper extends quantitative scores with post-hoc
explanations in terms of semantic concepts in the images generated. We show
that our method is uniquely capable of explaining complex multi-dimensional
biases through semantic concepts, as well as the intersectionality between
different biases for any given prompt. We perform extensive user studies to
illustrate that the results of our method and analysis are consistent with
human judgements.
- Abstract(参考訳): テキスト・ツー・イメージ(TTI)生成モデルは、複雑で高品質な画像を生成する能力において、ここ数年で大きな進歩を見せている。
同時に、これらのモデルは、誇張された社会バイアス(例えば、性別、民族性)や、モデルがより多様なイメージを生成する能力を制限する付随的な相関など、有害なバイアスに苦しむことが示されている。
本稿では,任意のttiモデルと任意のプロンプトに対して,反事実推論を用いて幅広いバイアススペクトルを研究し,定量化する一般的な手法を提案する。
事前定義されたバイアス軸上で生成された画像を評価する他の作品とは異なり、このアプローチは、与えられたプロンプトに関連する可能性のある潜在的なバイアスを自動的に識別し、それらのバイアスを測定する。
さらに,本論文では,画像のセマンティック概念の観点から,ポストホックな説明を伴う定量的スコアを拡張した。
提案手法は,任意のプロンプトに対して異なるバイアス間の交叉性だけでなく,意味概念を通じて複雑な多次元バイアスを一意的に説明できることを示す。
提案手法と分析の結果が人間の判断と一致していることを明らかにするため,広範なユーザ調査を行った。
関連論文リスト
- Quantifying Bias in Text-to-Image Generative Models [49.60774626839712]
テキスト・トゥ・イメージ(T2I)モデルにおけるバイアスは不公平な社会的表現を伝播させ、アイデアを積極的にマーケティングしたり、議論の的となっている議題を推進したりするのに用いられる。
既存のT2Iモデルバイアス評価手法は、社会的バイアスのみに焦点を当てる。
本稿では,T2I生成モデルにおける一般バイアスの定量化手法を提案する。
論文 参考訳(メタデータ) (2023-12-20T14:26:54Z) - AI-Generated Images Introduce Invisible Relevance Bias to Text-Image
Retrieval [70.54890125718387]
我々は,AI生成画像がテキスト画像検索モデルに目に見えない関連性バイアスをもたらすことを示す。
検索モデルのトレーニングデータにAI生成画像を含めると、目に見えない関連性バイアスが増す。
本研究では,目に見えない関連バイアスを軽減するための効果的なトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-23T16:22:58Z) - ITI-GEN: Inclusive Text-to-Image Generation [56.72212367905351]
本研究では,人書きプロンプトに基づいて画像を生成する包括的テキスト・画像生成モデルについて検討する。
いくつかの属性に対して、画像はテキストよりも概念を表現的に表現できることを示す。
Inclusive Text-to- Image GENeration に容易に利用可能な参照画像を活用する新しいアプローチ ITI-GEN を提案する。
論文 参考訳(メタデータ) (2023-09-11T15:54:30Z) - Auditing Gender Presentation Differences in Text-to-Image Models [54.16959473093973]
我々は、テキスト・ツー・イメージ・モデルにおいて、ジェンダーがどのように異なる形で提示されるかを研究する。
入力テキスト中の性指標を探索することにより、プレゼンテーション中心属性の周波数差を定量化する。
このような違いを推定する自動手法を提案する。
論文 参考訳(メタデータ) (2023-02-07T18:52:22Z) - Bias-to-Text: Debiasing Unknown Visual Biases through Language
Interpretation [72.02386627482056]
本稿では,視覚モデルにおけるバイアスを識別・緩和するB2Tフレームワークを提案する。
視覚バイアスの言語記述は、新しいバイアスの発見と効果的なモデルバイアスの発見を可能にする説明可能な形式を提供する。
様々な画像分類・生成タスクにおけるフレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-01-26T13:58:46Z) - Visual Recognition with Deep Learning from Biased Image Datasets [6.10183951877597]
視覚認知の文脈において、バイアスモデルがどのように治療問題に適用できるかを示す。
作業中のバイアス機構に関する(近似的な)知識に基づいて、我々のアプローチは観察を再重み付けする。
本稿では,画像データベース間で共有される低次元画像表現を提案する。
論文 参考訳(メタデータ) (2021-09-06T10:56:58Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - Evaluating and Mitigating Bias in Image Classifiers: A Causal
Perspective Using Counterfactuals [27.539001365348906]
本稿では、逆学習推論(ALI)の改良版に構造因果モデル(SCM)を組み込むことにより、逆ファクトアルを生成する方法を提案する。
本稿では,事前学習された機械学習分類器の説明方法を示し,そのバイアスを評価し,そのバイアスを正則化器を用いて緩和する方法について述べる。
論文 参考訳(メタデータ) (2020-09-17T13:19:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。