論文の概要: Text-to-Image Representativity Fairness Evaluation Framework
- arxiv url: http://arxiv.org/abs/2410.14201v1
- Date: Fri, 18 Oct 2024 06:31:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-21 14:24:26.493649
- Title: Text-to-Image Representativity Fairness Evaluation Framework
- Title(参考訳): テキストから画像への表現性評価フレームワーク
- Authors: Asma Yamani, Malak Baslyman,
- Abstract要約: 本稿では,テキスト・ツー・イメージ(TTI)表現性評価フレームワークを提案する。
本稿では,TTIシステムの多様性,包摂性,品質の3つの側面を評価する。
安定拡散に関する我々のフレームワークの評価は、このフレームワークがTTIシステムのバイアスを効果的に捉えることができることを示している。
- 参考スコア(独自算出の注目度): 0.42970700836450487
- License:
- Abstract: Text-to-Image generative systems are progressing rapidly to be a source of advertisement and media and could soon serve as image searches or artists. However, there is a significant concern about the representativity bias these models embody and how these biases can propagate in the social fabric after fine-tuning them. Therefore, continuously monitoring and evaluating these models for fairness is important. To address this issue, we propose Text-to-Image (TTI) Representativity Fairness Evaluation Framework. In this framework, we evaluate three aspects of a TTI system; diversity, inclusion, and quality. For each aspect, human-based and model-based approaches are proposed and evaluated for their ability to capture the bias and whether they can substitute each other. The framework starts by suggesting the prompts for generating the images for the evaluation based on the context and the sensitive attributes under study. Then the three aspects are evaluated using the proposed approaches. Based on the evaluation, a decision is made regarding the representativity bias within the TTI system. The evaluation of our framework on Stable Diffusion shows that the framework can effectively capture the bias in TTI systems. The results also confirm that our proposed model based-approaches can substitute human-based approaches in three out of four components with high correlation, which could potentially reduce costs and automate the process. The study suggests that continual learning of the model on more inclusive data across disadvantaged minorities such as Indians and Middle Easterners is essential to mitigate current stereotyping and lack of inclusiveness.
- Abstract(参考訳): テキストから画像への生成システムは急速に進歩し、広告やメディアの源泉となり、すぐに画像検索やアーティストとして機能するかもしれない。
しかしながら、これらのモデルが具現化している表現性バイアスと、それらのバイアスがそれらを微調整した後、どのように社会的布地内で伝播するかについては、大きな懸念がある。
したがって、これらのモデルの公平性を継続的に監視し、評価することが重要である。
この問題に対処するために,テキスト・トゥ・イメージ(TTI)表現性公正度評価フレームワークを提案する。
本稿では,TTIシステムの多様性,包摂性,品質の3つの側面を評価する。
それぞれの側面に対して、偏見を捉える能力と、相互に置換できるかどうかについて、人間ベースのアプローチとモデルベースのアプローチを提案し、評価する。
フレームワークは、研究中のコンテキストとセンシティブな属性に基づいて、評価のための画像を生成するプロンプトを提案することから始まる。
次に,提案手法を用いて3つの側面を評価する。
評価に基づいて、TTIシステム内の代表性バイアスについて決定を行う。
安定拡散に関する我々のフレームワークの評価は、このフレームワークがTTIシステムのバイアスを効果的に捉えることができることを示している。
また,提案したモデルベースのアプローチを,高い相関関係を持つ4つのコンポーネントのうち3つに置き換えることで,コスト削減とプロセスの自動化が可能であることを確認した。
この研究は、インド人や中東人といった不利なマイノリティをまたいだより包摂的なデータに基づくモデルの継続的な学習が、現在のステレオタイピングと包摂性の欠如を軽減するために不可欠であることを示唆している。
関連論文リスト
- Comprehensive Assessment and Analysis for NSFW Content Erasure in Text-to-Image Diffusion Models [16.60455968933097]
概念消去手法は、トレーニングデータセットからNSFWコンテンツをフィルタリングしても、必然的にNSFWコンテンツを生成できる。
テキスト・画像拡散モデルにおいて,NSFWコンテンツの概念消去手法とそのサブテーマを初めて体系的に検討した。
14の変種を持つ11の最先端ベースライン手法の総合評価を行う。
論文 参考訳(メタデータ) (2025-02-18T04:25:42Z) - INFELM: In-depth Fairness Evaluation of Large Text-To-Image Models [8.340794604348632]
マルチモーダルAIシステムは、人間のような認知をエミュレートすることで、産業応用の可能性を秘めている。
また、有害な内容の増幅や社会的偏見の強化など、重大な倫理的課題も生じている。
本稿では,広く使用されているテキスト・ツー・イメージ・モデルにおける奥行きの公平性評価であるINFELMを提案する。
論文 参考訳(メタデータ) (2024-12-28T02:28:19Z) - Multimodal Approaches to Fair Image Classification: An Ethical Perspective [0.0]
この論文は、公正な画像分類モデルの開発における技術と倫理の交差を探求する。
私は、有害な人口統計バイアスに対処するために、複数のモダリティを使用する公平さと方法の改善に重点を置いている。
この研究は、画像データセットや分類アルゴリズムにおける既存のバイアスを批判的に検討し、これらのバイアスを緩和するための革新的な方法を提案し、そのようなシステムを現実のシナリオに展開する際の倫理的影響を評価する。
論文 参考訳(メタデータ) (2024-12-11T19:58:31Z) - On the Fairness, Diversity and Reliability of Text-to-Image Generative Models [49.60774626839712]
マルチモーダル生成モデルは 彼らの公正さ、信頼性、そして誤用の可能性について 批判的な議論を呼んだ
組込み空間における摂動に対する応答を通じてモデルの信頼性を評価するための評価フレームワークを提案する。
本手法は, 信頼できない, バイアス注入されたモデルを検出し, バイアス前駆体の検索を行うための基礎となる。
論文 参考訳(メタデータ) (2024-11-21T09:46:55Z) - Six-CD: Benchmarking Concept Removals for Benign Text-to-image Diffusion Models [58.74606272936636]
テキスト・ツー・イメージ(T2I)拡散モデルは、テキスト・プロンプトと密接に対応した画像を生成する際、例外的な機能を示す。
モデルは、暴力やヌードの画像を生成したり、不適切な文脈で公共の人物の無許可の肖像画を作成するなど、悪意ある目的のために利用することができる。
悪質な概念や望ましくない概念の発生を防ぐために拡散モデルを変更する概念除去法が提案されている。
論文 参考訳(メタデータ) (2024-06-21T03:58:44Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Gender Biases in Automatic Evaluation Metrics for Image Captioning [87.15170977240643]
画像キャプションタスクのためのモデルに基づく評価指標において、性別バイアスの体系的研究を行う。
偏りのある世代と偏りのない世代を区別できないことを含む、これらの偏りのあるメトリクスを使用することによる負の結果を実証する。
人間の判断と相関を損なうことなく、測定バイアスを緩和する簡便で効果的な方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T04:27:40Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。