論文の概要: Text-to-Image Representativity Fairness Evaluation Framework
- arxiv url: http://arxiv.org/abs/2410.14201v1
- Date: Fri, 18 Oct 2024 06:31:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-21 14:24:26.493649
- Title: Text-to-Image Representativity Fairness Evaluation Framework
- Title(参考訳): テキストから画像への表現性評価フレームワーク
- Authors: Asma Yamani, Malak Baslyman,
- Abstract要約: 本稿では,テキスト・ツー・イメージ(TTI)表現性評価フレームワークを提案する。
本稿では,TTIシステムの多様性,包摂性,品質の3つの側面を評価する。
安定拡散に関する我々のフレームワークの評価は、このフレームワークがTTIシステムのバイアスを効果的に捉えることができることを示している。
- 参考スコア(独自算出の注目度): 0.42970700836450487
- License:
- Abstract: Text-to-Image generative systems are progressing rapidly to be a source of advertisement and media and could soon serve as image searches or artists. However, there is a significant concern about the representativity bias these models embody and how these biases can propagate in the social fabric after fine-tuning them. Therefore, continuously monitoring and evaluating these models for fairness is important. To address this issue, we propose Text-to-Image (TTI) Representativity Fairness Evaluation Framework. In this framework, we evaluate three aspects of a TTI system; diversity, inclusion, and quality. For each aspect, human-based and model-based approaches are proposed and evaluated for their ability to capture the bias and whether they can substitute each other. The framework starts by suggesting the prompts for generating the images for the evaluation based on the context and the sensitive attributes under study. Then the three aspects are evaluated using the proposed approaches. Based on the evaluation, a decision is made regarding the representativity bias within the TTI system. The evaluation of our framework on Stable Diffusion shows that the framework can effectively capture the bias in TTI systems. The results also confirm that our proposed model based-approaches can substitute human-based approaches in three out of four components with high correlation, which could potentially reduce costs and automate the process. The study suggests that continual learning of the model on more inclusive data across disadvantaged minorities such as Indians and Middle Easterners is essential to mitigate current stereotyping and lack of inclusiveness.
- Abstract(参考訳): テキストから画像への生成システムは急速に進歩し、広告やメディアの源泉となり、すぐに画像検索やアーティストとして機能するかもしれない。
しかしながら、これらのモデルが具現化している表現性バイアスと、それらのバイアスがそれらを微調整した後、どのように社会的布地内で伝播するかについては、大きな懸念がある。
したがって、これらのモデルの公平性を継続的に監視し、評価することが重要である。
この問題に対処するために,テキスト・トゥ・イメージ(TTI)表現性公正度評価フレームワークを提案する。
本稿では,TTIシステムの多様性,包摂性,品質の3つの側面を評価する。
それぞれの側面に対して、偏見を捉える能力と、相互に置換できるかどうかについて、人間ベースのアプローチとモデルベースのアプローチを提案し、評価する。
フレームワークは、研究中のコンテキストとセンシティブな属性に基づいて、評価のための画像を生成するプロンプトを提案することから始まる。
次に,提案手法を用いて3つの側面を評価する。
評価に基づいて、TTIシステム内の代表性バイアスについて決定を行う。
安定拡散に関する我々のフレームワークの評価は、このフレームワークがTTIシステムのバイアスを効果的に捉えることができることを示している。
また,提案したモデルベースのアプローチを,高い相関関係を持つ4つのコンポーネントのうち3つに置き換えることで,コスト削減とプロセスの自動化が可能であることを確認した。
この研究は、インド人や中東人といった不利なマイノリティをまたいだより包摂的なデータに基づくモデルの継続的な学習が、現在のステレオタイピングと包摂性の欠如を軽減するために不可欠であることを示唆している。
関連論文リスト
- Bias Begets Bias: The Impact of Biased Embeddings on Diffusion Models [0.0]
テキスト・トゥ・イメージ(TTI)システムは、社会的偏見に対する精査が増加している。
組込み空間をTTIモデルのバイアス源として検討する。
CLIPのような偏りのあるマルチモーダル埋め込みは、表現バランスの取れたTTIモデルに対して低いアライメントスコアをもたらす。
論文 参考訳(メタデータ) (2024-09-15T01:09:55Z) - Six-CD: Benchmarking Concept Removals for Benign Text-to-image Diffusion Models [58.74606272936636]
テキスト・ツー・イメージ(T2I)拡散モデルは、テキスト・プロンプトと密接に対応した画像を生成する際、例外的な機能を示す。
モデルは、暴力やヌードの画像を生成したり、不適切な文脈で公共の人物の無許可の肖像画を作成するなど、悪意ある目的のために利用することができる。
悪質な概念や望ましくない概念の発生を防ぐために拡散モデルを変更する概念除去法が提案されている。
論文 参考訳(メタデータ) (2024-06-21T03:58:44Z) - Can Prompt Modifiers Control Bias? A Comparative Analysis of Text-to-Image Generative Models [8.419004940268023]
本研究では,主要なテキスト・画像モデルであるStable Diffusion, DALL-E 3, Adobe Fireflyにおける社会的バイアスの存在と操作について検討した。
我々の発見は、バイアス制御におけるエンジニアリングの課題と可能性を明らかにし、倫理的AI開発における重要なニーズを浮き彫りにしている。
この研究は、テキストから画像生成モデルにおけるバイアスの微妙なダイナミクスを明らかにするだけでなく、バイアスを制御するための新しい研究フレームワークを提供することによって、AI倫理を前進させる。
論文 参考訳(メタデータ) (2024-06-09T00:54:57Z) - TIBET: Identifying and Evaluating Biases in Text-to-Image Generative Models [22.076898042211305]
我々は、任意のTTIモデルと任意のプロンプトに対して、幅広いバイアススペクトルを研究、定量化するための一般的なアプローチを提案する。
我々の手法は、与えられたプロンプトに関連する可能性のある潜在的なバイアスを自動的に識別し、それらのバイアスを測定する。
本研究では,本手法が意味論的概念を通じて複雑な多次元バイアスを説明できることを示す。
論文 参考訳(メタデータ) (2023-12-03T02:31:37Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Gender Biases in Automatic Evaluation Metrics for Image Captioning [87.15170977240643]
画像キャプションタスクのためのモデルに基づく評価指標において、性別バイアスの体系的研究を行う。
偏りのある世代と偏りのない世代を区別できないことを含む、これらの偏りのあるメトリクスを使用することによる負の結果を実証する。
人間の判断と相関を損なうことなく、測定バイアスを緩和する簡便で効果的な方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T04:27:40Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z) - DeAR: Debiasing Vision-Language Models with Additive Residuals [5.672132510411465]
大規模な事前学習型視覚言語モデル(VLM)は、リッチで適応可能な画像とテキスト表現を提供する。
これらのモデルは、トレーニングデータ中の様々なアイデンティティ群が歪んだ分布のため、社会的バイアスに悩まされる。
本稿では,元の表現をオフセットする付加的残像表現を学習する新しいデバイアス法であるDeARを提案する。
論文 参考訳(メタデータ) (2023-03-18T14:57:43Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。