論文の概要: Using complex prompts to identify fine-grained biases in image generation through ChatGPT-4o
- arxiv url: http://arxiv.org/abs/2504.00388v1
- Date: Tue, 01 Apr 2025 03:17:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 15:43:08.870597
- Title: Using complex prompts to identify fine-grained biases in image generation through ChatGPT-4o
- Title(参考訳): ChatGPT-4oを用いた複雑なプロンプトを用いた画像生成におけるきめ細かいバイアスの同定
- Authors: Marinus Ferreira,
- Abstract要約: バイアスの2つの次元は、大きなAIモデルの研究を通して明らかにすることができる。
トレーニングデータやAIの製品に偏りがあるだけでなく、社会にも偏りがある。
画像生成AIに複雑なプロンプトを使ってバイアスのどちらの次元を調査できるかを簡単に議論する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: There are not one but two dimensions of bias that can be revealed through the study of large AI models: not only bias in training data or the products of an AI, but also bias in society, such as disparity in employment or health outcomes between different demographic groups. Often training data and AI output is biased for or against certain demographics (i.e. older white people are overrepresented in image datasets), but sometimes large AI models accurately illustrate biases in the real world (i.e. young black men being disproportionately viewed as threatening). These social disparities often appear in image generation AI outputs in the form of 'marked' features, where some feature of an individual or setting is a social marker of disparity, and prompts both humans and AI systems to treat subjects that are marked in this way as exceptional and requiring special treatment. Generative AI has proven to be very sensitive to such marked features, to the extent of over-emphasising them and thus often exacerbating social biases. I briefly discuss how we can use complex prompts to image generation AI to investigate either dimension of bias, emphasising how we can probe the large language models underlying image generation AI through, for example, automated sentiment analysis of the text prompts used to generate images.
- Abstract(参考訳): トレーニングデータやAIのプロダクトのバイアスだけでなく、雇用の格差や異なる人口集団間の健康結果といった社会のバイアスも、大きなAIモデルの研究を通じて明らかにできるバイアスの次元は1つではなく2つある。
トレーニングデータとAIのアウトプットは、特定の人口層(すなわち、高齢者の白人が画像データセットで過剰に表現されている)に対してバイアスを受けることが多いが、大きなAIモデルは、現実の世界のバイアス(すなわち、若い黒人男性が不当に脅威と見なされる)を正確に表すことがある。
これらの社会的格差は、画像生成AIの出力に「マークされた」特徴の形で現れることが多く、個人や設定のいくつかの特徴が格差の社会的マーカーであり、人間とAIシステムの両方に、このような特徴を持つ対象を特別な治療として扱うように促す。
生成的AIはそのような特徴に非常に敏感で、過度に強調し、社会的偏見を悪化させることがしばしばある。
画像生成AIにおける複雑なプロンプトを用いて、偏見の次元を調査し、例えば画像生成に使用するテキストプロンプトの自動感情分析を通じて、画像生成AIの基盤となる大きな言語モデルを探索する方法を強調した。
関連論文リスト
- Could AI Trace and Explain the Origins of AI-Generated Images and Text? [53.11173194293537]
AI生成コンテンツは、現実の世界ではますます普及している。
敵は、大規模なマルチモーダルモデルを利用して、倫理的または法的基準に違反した画像を作成するかもしれない。
ペーパーレビュアーは、大きな言語モデルを誤用して、真の知的努力なしにレビューを生成する。
論文 参考訳(メタデータ) (2025-04-05T20:51:54Z) - Exploring Bias in over 100 Text-to-Image Generative Models [49.60774626839712]
本稿では,Hugging Faceのようなオープンプラットフォームによるモデルの利用率向上に着目し,テキストから画像への生成モデルにおけるバイアスの傾向について検討する。
我々は, (i) 分布バイアス, (ii) 生成幻覚, (iii) 生成ミスレートの3つの主要な次元にまたがるバイアスを評価する。
以上の結果から, 芸術的モデルとスタイル変換モデルに有意なバイアスが生じる一方で, より広範なトレーニング分布の恩恵を受ける基礎モデルでは, 徐々にバイアスが減っていることが示唆された。
論文 参考訳(メタデータ) (2025-03-11T03:40:44Z) - Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - Disability Representations: Finding Biases in Automatic Image Generation [0.0]
本研究では、人気の画像生成モデルにおける障害者に対する表現バイアスについて検討する。
その結果、ほとんどの画像は、障害者を年老いて悲しく、主に手動車椅子で描いているという大きな偏見が示された。
これらの発見は、より包括的なAI開発の必要性を強調し、生成された画像におけるPWDの多様性と正確な表現を保証する。
論文 参考訳(メタデータ) (2024-06-21T09:12:31Z) - Bias in Generative AI [2.5830293457323266]
本研究では、AIジェネレータの潜在的なバイアスを調べるために、3つの一般的な生成人工知能(AI)ツールによって生成された画像を分析した。
3つのAIジェネレータはすべて、女性とアフリカ系アメリカ人に対する偏見を示しました。
女性はより笑顔と幸福で若く描かれ、男性はより中立な表情と怒りで年上のように描かれていた。
論文 参考訳(メタデータ) (2024-03-05T07:34:41Z) - Invisible Relevance Bias: Text-Image Retrieval Models Prefer AI-Generated Images [67.18010640829682]
我々は,AI生成画像がテキスト画像検索モデルに目に見えない関連性バイアスをもたらすことを示す。
検索モデルのトレーニングデータにAI生成画像を含めると、目に見えない関連性バイアスが増す。
本研究では,目に見えない関連バイアスを軽減するための効果的なトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-23T16:22:58Z) - Fairness And Bias in Artificial Intelligence: A Brief Survey of Sources,
Impacts, And Mitigation Strategies [11.323961700172175]
この調査論文は、AIの公平性とバイアスに関する簡潔で包括的な概要を提供する。
我々は、データ、アルゴリズム、人間の決定バイアスなどのバイアス源をレビューする。
偏りのあるAIシステムの社会的影響を評価し,不平等の持続性と有害なステレオタイプの強化に着目した。
論文 参考訳(メタデータ) (2023-04-16T03:23:55Z) - Social Biases through the Text-to-Image Generation Lens [9.137275391251517]
テキスト・トゥ・イメージ(T2I)生成は、プロダクティビティソフトウェアのクリエーター、デザイナ、一般ユーザをサポートする新しいアプリケーションを可能にする。
生成した画像に反映された一般的な社会的偏見の研究と定量化に多次元的アプローチを採用する。
DALLE-v2とStable Diffusionの2つのT2Iモデルについて検討した。
論文 参考訳(メタデータ) (2023-03-30T05:29:13Z) - Easily Accessible Text-to-Image Generation Amplifies Demographic
Stereotypes at Large Scale [61.555788332182395]
危険で複雑なステレオタイプを増幅する機械学習モデルの可能性を検討する。
さまざまな通常のプロンプトがステレオタイプを生成しており、それらは単に特性、記述子、職業、オブジェクトに言及するプロンプトを含む。
論文 参考訳(メタデータ) (2022-11-07T18:31:07Z) - How well can Text-to-Image Generative Models understand Ethical Natural
Language Interventions? [67.97752431429865]
倫理的介入を加える際の画像の多様性への影響について検討した。
予備研究は、モデル予測の大きな変化が「性別の無視」のような特定のフレーズによって引き起こされることを示している。
論文 参考訳(メタデータ) (2022-10-27T07:32:39Z) - Image Representations Learned With Unsupervised Pre-Training Contain
Human-like Biases [3.0349733976070015]
本研究では,社会概念の表現とイメージの属性の相関関係を定量化する手法を開発した。
一般的なベンチマーク画像データセットであるImageNetでトレーニングされた最先端の教師なしモデルは、人種、性別、交差点バイアスを自動的に学習する。
論文 参考訳(メタデータ) (2020-10-28T15:55:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。