論文の概要: Mitigate One, Skew Another? Tackling Intersectional Biases in Text-to-Image Models
- arxiv url: http://arxiv.org/abs/2505.17280v1
- Date: Thu, 22 May 2025 20:56:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:33.690543
- Title: Mitigate One, Skew Another? Tackling Intersectional Biases in Text-to-Image Models
- Title(参考訳): テキスト・画像・モデルにおける間欠的バイアスの軽減
- Authors: Pushkar Shukla, Aditya Chinchure, Emily Diana, Alexander Tolbert, Kartik Hosanagar, Vineeth N Balasubramanian, Leonid Sigal, Matthew Turk,
- Abstract要約: テキスト・ツー・イメージ・モデルにおけるバイアス相互作用を解析・定量化するための新しいツールであるBiasConnectを紹介する。
ユーザが定義した目標分布と優先度重みを導出する交叉バイアス緩和アルゴリズムであるInterMitを提案する。
- 参考スコア(独自算出の注目度): 73.20190633746442
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The biases exhibited by text-to-image (TTI) models are often treated as independent, though in reality, they may be deeply interrelated. Addressing bias along one dimension - such as ethnicity or age - can inadvertently affect another, like gender, either mitigating or exacerbating existing disparities. Understanding these interdependencies is crucial for designing fairer generative models, yet measuring such effects quantitatively remains a challenge. To address this, we introduce BiasConnect, a novel tool for analyzing and quantifying bias interactions in TTI models. BiasConnect uses counterfactual interventions along different bias axes to reveal the underlying structure of these interactions and estimates the effect of mitigating one bias axis on another. These estimates show strong correlation (+0.65) with observed post-mitigation outcomes. Building on BiasConnect, we propose InterMit, an intersectional bias mitigation algorithm guided by user-defined target distributions and priority weights. InterMit achieves lower bias (0.33 vs. 0.52) with fewer mitigation steps (2.38 vs. 3.15 average steps), and yields superior image quality compared to traditional techniques. Although our implementation is training-free, InterMit is modular and can be integrated with many existing debiasing approaches for TTI models, making it a flexible and extensible solution.
- Abstract(参考訳): テキスト・ツー・イメージ(TTI)モデルで示されるバイアスは、しばしば独立したものとして扱われるが、実際には深い相互関係があるかもしれない。
民族や年齢などの1次元に沿ったバイアスに対処することは、既存の格差を緩和または悪化させる、性のような別の側面に必然的に影響を及ぼす可能性がある。
これらの相互依存を理解することは、より公平な生成モデルの設計に不可欠であるが、そのような効果を定量的に測定することは依然として困難である。
そこで本研究では,TTIモデルにおけるバイアス相互作用を解析・定量化するための新しいツールであるBiasConnectを紹介する。
BiasConnectは、異なるバイアス軸に沿った反事実的介入を使用して、これらの相互作用の基盤構造を明らかにし、別のバイアス軸を緩和する効果を推定する。
これらの推定値は、観察後の結果と強い相関(+0.65)を示す。
BiasConnect上に構築したInterMitは,ユーザ定義のターゲット分布と優先度重みを導出する交叉バイアス軽減アルゴリズムである。
InterMitは、緩和ステップ(2.38対3.15の平均ステップ)が少なく、より低いバイアス(0.33対0.52)を達成し、従来の技術よりも優れた画質が得られる。
私たちの実装はトレーニングフリーですが、InterMitはモジュール化されており、TTIモデルの多くの既存のデバイアスアプローチと統合することができ、柔軟で拡張可能なソリューションになります。
関連論文リスト
- BiasConnect: Investigating Bias Interactions in Text-to-Image Models [73.76853483463836]
テキスト・ツー・イメージ・モデルにおけるバイアス相互作用の分析と定量化を目的とした新しいツールであるBiasConnectを紹介する。
我々の手法は、与えられたバイアスが修正されたとき、他のバイアス次元が理想的な分布に向かって、あるいは離れてどのように変化するかを示す経験的推定を提供する。
本稿では,最適なバイアス緩和軸の選択,学習する依存関係の異なるTTIモデルの比較,およびTTIモデルにおける交叉社会的バイアスの増幅を理解するためのBiasConnectの有用性を示す。
論文 参考訳(メタデータ) (2025-03-12T19:01:41Z) - Rethinking Relation Extraction: Beyond Shortcuts to Generalization with a Debiased Benchmark [53.876493664396506]
ベンチマークは、機械学習アルゴリズムのパフォーマンスの評価、比較の促進、優れたソリューションの特定に不可欠である。
本稿では,関係抽出タスクにおけるエンティティバイアスの問題に対処する。
本稿では,エンティティの代替によって,エンティティ参照と関係型との擬似相関を破る不偏関係抽出ベンチマークDREBを提案する。
DREBの新たなベースラインを確立するために,データレベルとモデルトレーニングレベルを組み合わせたデバイアス手法であるMixDebiasを導入する。
論文 参考訳(メタデータ) (2025-01-02T17:01:06Z) - Images Speak Louder than Words: Understanding and Mitigating Bias in Vision-Language Model from a Causal Mediation Perspective [13.486497323758226]
広範囲なデータセットで事前訓練された視覚言語モデルは、性情報とオブジェクトやシナリオを関連付けることによって、必然的にバイアスを学習することができる。
本稿では,因果媒介分析を取り入れた枠組みを提案し,バイアス発生と伝播の経路を計測・マッピングする。
論文 参考訳(メタデータ) (2024-07-03T05:19:45Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Chairs Can be Stood on: Overcoming Object Bias in Human-Object
Interaction Detection [22.3445174577181]
画像中のHuman-Object Interaction(HOI)は、高レベルの視覚的理解に向けた重要なステップである。
本稿では,検出対象下でのインタラクションの分散を再バランスする,新しいプラグアンドプレイ型オブジェクト指向デバイアスメモリ(ODM)手法を提案する。
提案手法は,特に各オブジェクト下での稀な相互作用において,ベースラインよりも一貫した,重要な改善をもたらす。
論文 参考訳(メタデータ) (2022-07-06T01:55:28Z) - How Gender Debiasing Affects Internal Model Representations, and Why It
Matters [26.993273464725995]
内因性バイアスは、標準のWEAT測定値よりもデバイアスの指標として優れていることを示す。
当社のフレームワークは,NLPモデルのバイアスを包括的に把握し,より情報のある方法でNLPシステムのデプロイに適用することができる。
論文 参考訳(メタデータ) (2022-04-14T08:54:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。