論文の概要: MineTheGap: Automatic Mining of Biases in Text-to-Image Models
- arxiv url: http://arxiv.org/abs/2512.13427v1
- Date: Mon, 15 Dec 2025 15:17:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.720011
- Title: MineTheGap: Automatic Mining of Biases in Text-to-Image Models
- Title(参考訳): MineTheGap:テキスト・画像モデルにおけるビアーゼの自動マイニング
- Authors: Noa Cohen, Nurit Spingarn-Eliezer, Inbar Huberman-Spiegelglas, Tomer Michaeli,
- Abstract要約: テキスト・ツー・イメージ(TTI)モデルは、テキスト・プロンプトに基づいて画像を生成する。
これらのバイアスは、例えば、ある特定の職業に対してのみ特定の人種を示すときに、社会的影響をもたらす可能性がある。
ここでは、TTIモデルがバイアス出力を生成する原因となるプロンプトを自動的にマイニングする手法であるMineTheGapを紹介する。
- 参考スコア(独自算出の注目度): 34.34264237099797
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text-to-Image (TTI) models generate images based on text prompts, which often leave certain aspects of the desired image ambiguous. When faced with these ambiguities, TTI models have been shown to exhibit biases in their interpretations. These biases can have societal impacts, e.g., when showing only a certain race for a stated occupation. They can also affect user experience when creating redundancy within a set of generated images instead of spanning diverse possibilities. Here, we introduce MineTheGap - a method for automatically mining prompts that cause a TTI model to generate biased outputs. Our method goes beyond merely detecting bias for a given prompt. Rather, it leverages a genetic algorithm to iteratively refine a pool of prompts, seeking for those that expose biases. This optimization process is driven by a novel bias score, which ranks biases according to their severity, as we validate on a dataset with known biases. For a given prompt, this score is obtained by comparing the distribution of generated images to the distribution of LLM-generated texts that constitute variations on the prompt. Code and examples are available on the project's webpage.
- Abstract(参考訳): テキスト・ツー・イメージ(TTI)モデルは、テキスト・プロンプトに基づいて画像を生成する。
これらの曖昧さに直面した場合、TTIモデルは解釈にバイアスを示すことが示されている。
これらのバイアスは、例えば、ある特定の職業に対してのみ特定の人種を示すときに、社会的影響をもたらす可能性がある。
また、さまざまな可能性にまたがるのではなく、生成した画像のセット内で冗長性を生成する際のユーザエクスペリエンスに影響を与えることもできる。
ここでは、TTIモデルがバイアス出力を生成する原因となるプロンプトを自動的にマイニングする手法であるMineTheGapを紹介する。
我々の方法は、与えられたプロンプトのバイアスを単に検出するだけではない。
むしろ、遺伝的アルゴリズムを利用して、一連のプロンプトを反復的に洗練し、バイアスを露呈するものを探す。
この最適化プロセスは、既知のバイアスを持つデータセット上で検証する際、その厳しさに応じてバイアスをランク付けする、新しいバイアススコアによって駆動される。
所定のプロンプトに対して、生成された画像の分布と、プロンプトの変動を構成するLCM生成テキストの分布を比較することで、このスコアを得る。
コードとサンプルはプロジェクトのWebページで公開されている。
関連論文リスト
- Exposing Hidden Biases in Text-to-Image Models via Automated Prompt Search [18.386455479798574]
Bias-Guided Prompt Search (BGPS)は、画像内のバイアスの存在を最大化するプロンプトを自動的に生成するフレームワークである。
BGPSは、(1)属性ニュートラルなプロンプトを生成するよう指示されたLLMと、(2)TTIの内部表現に作用する属性分類器の2つのコンポーネントから構成される。
我々は、安定拡散1.5と最先端の縮退モデルに関する広範な実験を行い、微妙で以前は文書化されていなかったバイアスの配列を発見する。
論文 参考訳(メタデータ) (2025-12-09T15:39:04Z) - AutoDebias: Automated Framework for Debiasing Text-to-Image Models [6.581606189725493]
テキスト・ツー・イメージ(T2I)モデルはテキスト・プロンプトから高品質な画像を生成するが、しばしば意図しない社会的偏見を示す。
本稿では,T2Iモデルにおける有害バイアスを自動的に識別・緩和するフレームワークであるAutoDebiasを提案する。
このフレームワークを25以上のバイアスシナリオをカバーするベンチマークで評価する。
論文 参考訳(メタデータ) (2025-08-01T09:05:45Z) - Using LLMs as prompt modifier to avoid biases in AI image generators [0.0]
LLM(Large Language Models)は、ユーザプロンプトを変更することで、テキストから画像生成システムにおけるバイアスを低減する。
安定拡散XL, 3.5, Fluxを用いた実験により, LLMを修飾したプロンプトは, 画像生成装置自体を変更することなく, 画像の多様性を著しく向上し, バイアスを低減できることが示された。
論文 参考訳(メタデータ) (2025-04-15T11:52:20Z) - GradBias: Unveiling Word Influence on Bias in Text-to-Image Generative Models [75.04426753720553]
開集合におけるバイアスを特定し,定量化し,説明するための枠組みを提案する。
このパイプラインはLarge Language Model (LLM)を活用して、一連のキャプションから始まるバイアスを提案する。
このフレームワークには、OpenBiasとGradBiasの2つのバリエーションがあります。
論文 参考訳(メタデータ) (2024-08-29T16:51:07Z) - AITTI: Learning Adaptive Inclusive Token for Text-to-Image Generation [53.65701943405546]
我々は適応的包摂トークンを学習し、最終的な生成出力の属性分布をシフトする。
本手法では,明示的な属性仕様やバイアス分布の事前知識は必要としない。
提案手法は,特定の属性を要求されたり,生成の方向を編集するモデルに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2024-06-18T17:22:23Z) - Fair Text-to-Image Diffusion via Fair Mapping [32.02815667307623]
本稿では,事前学習したテキスト・画像拡散モデルを修正する,フレキシブルでモデルに依存しない,軽量なアプローチを提案する。
暗黙的言語バイアスの問題を効果的に解決することにより、より公平で多様な画像出力を生成する。
論文 参考訳(メタデータ) (2023-11-29T15:02:01Z) - ITI-GEN: Inclusive Text-to-Image Generation [56.72212367905351]
本研究では,人書きプロンプトに基づいて画像を生成する包括的テキスト・画像生成モデルについて検討する。
いくつかの属性に対して、画像はテキストよりも概念を表現的に表現できることを示す。
Inclusive Text-to- Image GENeration に容易に利用可能な参照画像を活用する新しいアプローチ ITI-GEN を提案する。
論文 参考訳(メタデータ) (2023-09-11T15:54:30Z) - Word-Level Explanations for Analyzing Bias in Text-to-Image Models [72.71184730702086]
Text-to-image(T2I)モデルは、人種や性別に基づいて少数派を過小評価する画像を生成することができる。
本稿では,入力プロンプトのどの単語が生成画像のバイアスの原因となるかを検討する。
論文 参考訳(メタデータ) (2023-06-03T21:39:07Z) - Mitigating Test-Time Bias for Fair Image Retrieval [18.349154934096784]
我々は、中立なテキストクエリにより、公平で偏りのない画像検索結果を生成するという課題に対処する。
本稿では,事前学習した視覚言語モデルから出力を後処理する簡単な手法であるポストホックバイアス緩和手法を提案する。
提案手法は,テキストによる画像検索結果において,既存の様々なバイアス軽減手法と比較して,最も低いバイアスを実現する。
論文 参考訳(メタデータ) (2023-05-23T21:31:16Z) - Discovering and Mitigating Visual Biases through Keyword Explanation [66.71792624377069]
視覚バイアスをキーワードとして解釈するBias-to-Text(B2T)フレームワークを提案する。
B2Tは、CelebAの性別バイアス、ウォーターバードの背景バイアス、ImageNet-R/Cの分布シフトなど、既知のバイアスを特定することができる。
B2Tは、Dollar StreetやImageNetのような大きなデータセットで、新しいバイアスを明らかにする。
論文 参考訳(メタデータ) (2023-01-26T13:58:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。