論文の概要: Evaluating Demographic Misrepresentation in Image-to-Image Portrait Editing
- arxiv url: http://arxiv.org/abs/2602.16149v1
- Date: Wed, 18 Feb 2026 02:47:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.496849
- Title: Evaluating Demographic Misrepresentation in Image-to-Image Portrait Editing
- Title(参考訳): イメージ・ツー・イメージ・ポートレート編集における画像誤表現の評価
- Authors: Huichan Seo, Minki Hong, Sieun Choi, Jihie Kim, Jean Oh,
- Abstract要約: オープンウェイトI2Iエディターにおいて、同一編集命令が対象者間で体系的に異なる結果をもたらすか否かを検討する。
人種・性別・年齢の条件付き肖像画を作成したり編集したりすることで、人口動態を調査するベンチマークを導入する。
我々の分析では、アイデンティティ保護の失敗は広く、人口的に不均一であり、暗黙の社会的先行によって形づくられることを示している。
- 参考スコア(独自算出の注目度): 12.987585404597821
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Demographic bias in text-to-image (T2I) generation is well studied, yet demographic-conditioned failures in instruction-guided image-to-image (I2I) editing remain underexplored. We examine whether identical edit instructions yield systematically different outcomes across subject demographics in open-weight I2I editors. We formalize two failure modes: Soft Erasure, where edits are silently weakened or ignored in the output image, and Stereotype Replacement, where edits introduce unrequested, stereotype-consistent attributes. We introduce a controlled benchmark that probes demographic-conditioned behavior by generating and editing portraits conditioned on race, gender, and age using a diagnostic prompt set, and evaluate multiple editors with vision-language model (VLM) scoring and human evaluation. Our analysis shows that identity preservation failures are pervasive, demographically uneven, and shaped by implicit social priors, including occupation-driven gender inference. Finally, we demonstrate that a prompt-level identity constraint, without model updates, can substantially reduce demographic change for minority groups while leaving majority-group portraits largely unchanged, revealing asymmetric identity priors in current editors. Together, our findings establish identity preservation as a central and demographically uneven failure mode in I2I editing and motivate demographic-robust editing systems. Project page: https://seochan99.github.io/i2i-demographic-bias
- Abstract(参考訳): テキスト・ツー・イメージ(T2I)生成におけるデモグラフィックバイアスはよく研究されているが、命令誘導画像・イメージ(I2I)編集における人口統計学的問題はまだ未検討である。
オープンウェイトI2Iエディターにおいて、同一編集命令が対象者間で体系的に異なる結果をもたらすか否かを検討する。
我々は、2つの障害モードを定式化する:ソフト消去、出力画像で編集が静かに弱められたり無視されたりする、ステレオタイプ置換、未要求のステレオタイプ一貫性属性を導入する、という2つの障害モード。
本稿では,人種,性別,年齢に規定された肖像画を,診断プロンプトセットを用いて生成・編集し,視覚言語モデル(VLM)を用いた複数の編集者の評価と人的評価を行うことにより,人口動態を調査する制御ベンチマークを提案する。
我々の分析では、アイデンティティ保護の失敗は広く、人口統計学的に不均一であり、職業主体の性別推定を含む暗黙の社会的先行によって形成されていることを示している。
最後に、モデル更新を伴わない即時的なアイデンティティ制約は、少数派集団の人口動態を著しく低下させつつ、多数派像をほとんど変更せず、現在の編集者の非対称なアイデンティティーの先行性を明らかにすることを実証する。
本研究は,I2I編集における中心的かつ人口的不均一な障害モードとしてアイデンティティ保護が確立され,人口動態を損なう編集システムへのモチベーションが得られた。
プロジェクトページ: https://seochan99.github.io/i2i-demographic-bias
関連論文リスト
- Measuring Social Bias in Vision-Language Models with Face-Only Counterfactuals from Real Photos [79.03150233804458]
現実のイメージは人種と性別を混在させ、背景や衣服などの関連要因や属性を隠蔽する。
テキストのみの対実的評価パラダイムを提案する。
我々は、人種や性別に関連する顔属性のみを編集し、他の視覚的要素を全て固定することで、反事実的変異を生成する。
論文 参考訳(メタデータ) (2026-01-11T14:35:06Z) - Charts Are Not Images: On the Challenges of Scientific Chart Editing [66.38730113476677]
textitFigEditは、3万以上のサンプルからなる科学的フィギュア編集のベンチマークである。
私たちのベンチマークでは、ピクセルレベルの操作の重大な制限が示されています。
textitFigEdit をリリースすることにより,構造対応図形編集の体系的な進歩の実現を目指す。
論文 参考訳(メタデータ) (2025-11-30T06:13:48Z) - Exposing Blindspots: Cultural Bias Evaluation in Generative Image Models [14.992895369883504]
先行研究は、主にテキスト・トゥ・イメージ(T2I)システムにおける文化的偏見を調査してきた。
6カ国で統一的な評価でこのギャップを埋める。
クロスカントリー、クロスエラ、クロスカテゴリの評価を導出します。
論文 参考訳(メタデータ) (2025-10-22T21:42:59Z) - Demographic Variability in Face Image Quality Measures [6.765680388573267]
顔画像品質評価(FIQA)アルゴリズムは、オンラインアイデンティティ管理アプリケーションに統合されている。
バイオメトリックシステムに関して、人口統計バイアスに関する懸念が高まっている。
論文 参考訳(メタデータ) (2025-01-14T07:26:55Z) - LIPE: Learning Personalized Identity Prior for Non-rigid Image Editing [20.861672583434718]
LIPEは、2段階のフレームワークであり、同じ主題の画像の限られたセットを利用して生成モデルをカスタマイズするように設計されている。
LIPEは、同じ対象の限られた画像集合を用いて生成モデルをカスタマイズする2段階のフレームワークであり、その後、非厳密な画像編集のために学習済みのモデルを用いる。
論文 参考訳(メタデータ) (2024-06-25T02:56:16Z) - The Male CEO and the Female Assistant: Evaluation and Mitigation of Gender Biases in Text-To-Image Generation of Dual Subjects [58.27353205269664]
本稿では,Paired Stereotype Test (PST) フレームワークを提案する。
PSTクエリT2Iモデルは、男性ステレオタイプと女性ステレオタイプに割り当てられた2つの個人を描写する。
PSTを用いて、ジェンダーバイアスの2つの側面、つまり、ジェンダーの職業におけるよく知られたバイアスと、組織力におけるバイアスという新しい側面を評価する。
論文 参考訳(メタデータ) (2024-02-16T21:32:27Z) - Counterfactual Image Editing [54.21104691749547]
対物画像編集は、生成AIにおいて重要なタスクであり、ある機能が異なる場合、画像がどのように見えるかを尋ねる。
本稿では,形式言語を用いた対物画像編集タスクを形式化し,潜在生成因子と画像の因果関係をモデル化する。
ニューラル因果モデルを利用して、対物画像を生成する効率的なアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-02-07T20:55:39Z) - Social Biases through the Text-to-Image Generation Lens [9.137275391251517]
テキスト・トゥ・イメージ(T2I)生成は、プロダクティビティソフトウェアのクリエーター、デザイナ、一般ユーザをサポートする新しいアプリケーションを可能にする。
生成した画像に反映された一般的な社会的偏見の研究と定量化に多次元的アプローチを採用する。
DALLE-v2とStable Diffusionの2つのT2Iモデルについて検討した。
論文 参考訳(メタデータ) (2023-03-30T05:29:13Z) - How well can Text-to-Image Generative Models understand Ethical Natural
Language Interventions? [67.97752431429865]
倫理的介入を加える際の画像の多様性への影響について検討した。
予備研究は、モデル予測の大きな変化が「性別の無視」のような特定のフレーズによって引き起こされることを示している。
論文 参考訳(メタデータ) (2022-10-27T07:32:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。