論文の概要: A Taxonomy of the Biases of the Images created by Generative Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2407.01556v1
- Date: Thu, 2 May 2024 22:01:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 22:28:39.829132
- Title: A Taxonomy of the Biases of the Images created by Generative Artificial Intelligence
- Title(参考訳): 生成人工知能による画像のバイアスの分類
- Authors: Adriana Fernández de Caleya Vázquez, Eduardo C. Garrido-Merchán,
- Abstract要約: 生成する人工知能モデルは、ユーザーからプロンプトを受けただけで、ユニークなコンテンツを自動的に生成する素晴らしいパフォーマンスを示しています。
我々は、これらのモデルによって生成されたコンテンツが、変数の多元性に対してどのように強くバイアスされるか、詳細に分析する。
我々は、これらのバイアスの社会的、政治的、経済的含意とそれらを緩和する方法について議論する。
- 参考スコア(独自算出の注目度): 2.0257616108612373
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative artificial intelligence models show an amazing performance creating unique content automatically just by being given a prompt by the user, which is revolutionizing several fields such as marketing and design. Not only are there models whose generated output belongs to the text format but we also find models that are able to automatically generate high quality genuine images and videos given a prompt. Although the performance in image creation seems impressive, it is necessary to slowly assess the content that these models are generating, as the users are uploading massively this material on the internet. Critically, it is important to remark that generative AI are statistical models whose parameter values are estimated given algorithms that maximize the likelihood of the parameters given an image dataset. Consequently, if the image dataset is biased towards certain values for vulnerable variables such as gender or skin color, we might find that the generated content of these models can be harmful for certain groups of people. By generating this content and being uploaded into the internet by users, these biases are perpetuating harmful stereotypes for vulnerable groups, polarizing social vision about, for example, what beauty or disability is and means. In this work, we analyze in detail how the generated content by these models can be strongly biased with respect to a plethora of variables, which we organize into a new image generative AI taxonomy. We also discuss the social, political and economical implications of these biases and possible ways to mitigate them.
- Abstract(参考訳): 生成する人工知能モデルは、ユーザーからプロンプトを受けただけで、ユニークなコンテンツを自動生成する素晴らしいパフォーマンスを示している。
生成した出力がテキストフォーマットに属するモデルだけでなく、プロンプトが与えられた高品質の真の画像やビデオを自動的に生成できるモデルも存在します。
画像生成のパフォーマンスは印象的と思われるが、ユーザがインターネットに膨大な量のデータをアップロードしているため、これらのモデルが生成しているコンテンツをゆっくりと評価する必要がある。
重要な点として、生成AIはパラメータ値が推定される統計モデルであり、画像データセットが与えられたパラメータの確率を最大化するアルゴリズムである点が挙げられる。
したがって、画像データセットが性別や肌の色などの弱い変数の特定の値に偏っている場合、これらのモデルの生成されたコンテンツは特定のグループに有害である可能性がある。
これらのコンテンツを生成し、ユーザーによってインターネットにアップロードすることで、これらのバイアスは、脆弱なグループにとって有害なステレオタイプを永続させ、例えば、美や障害について、社会的ビジョンを分極する。
本研究では、これらのモデルによって生成されたコンテンツが、変数の多元性に対してどのように強くバイアスを受けることができるのかを詳細に分析し、新しい画像生成型AI分類に編成する。
また、これらのバイアスの社会的、政治的、経済的含意とそれらを緩和する可能性についても論じる。
関連論文リスト
- KITTEN: A Knowledge-Intensive Evaluation of Image Generation on Visual Entities [93.74881034001312]
テキスト・画像生成モデルにおける実体の忠実度に関する系統的研究を行う。
我々はランドマークの建物、航空機、植物、動物など、幅広い現実世界の視覚的実体を生成する能力に焦点をあてる。
その結果、最も高度なテキスト・画像モデルでさえ、正確な視覚的詳細を持つエンティティを生成できないことが判明した。
論文 参考訳(メタデータ) (2024-10-15T17:50:37Z) - Analyzing Quality, Bias, and Performance in Text-to-Image Generative Models [0.0]
生成モデルの発展にもかかわらず、ほとんどの研究はバイアスの存在を無視している。
本稿では,人間の顔,グループ,特定対象物の正確な画像を生成する上で,その性能を定性的に評価するだけでなく,社会的バイアス分析を行うことにより,複数のテキスト・画像モデルについて検討する。
期待通り、より大きな能力を持つモデルは、高品質な画像を生成する。しかし、これらのモデルが持つ固有の性別や社会的バイアスも文書化しており、それらの影響と限界をより完全に理解している。
論文 参考訳(メタデータ) (2024-06-28T14:10:42Z) - Improving face generation quality and prompt following with synthetic captions [57.47448046728439]
画像から正確な外観記述を生成するために,トレーニング不要のパイプラインを導入する。
次に、これらの合成キャプションを使用して、テキストから画像への拡散モデルを微調整する。
提案手法は,高品質で現実的な人間の顔を生成するモデルの能力を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2024-05-17T15:50:53Z) - Would Deep Generative Models Amplify Bias in Future Models? [29.918422914275226]
今後のコンピュータビジョンモデルにおいて、深層生成モデルが潜在的な社会的バイアスに与える影響について検討する。
我々は,COCOおよびCC3Mデータセットの原画像に,安定拡散により生成された画像に代えてシミュレーションを行う。
予想とは対照的に、トレーニング中に生成された画像を導入することはバイアスを均一に増幅しないことを示す。
論文 参考訳(メタデータ) (2024-04-04T06:58:39Z) - Invisible Relevance Bias: Text-Image Retrieval Models Prefer AI-Generated Images [67.18010640829682]
我々は,AI生成画像がテキスト画像検索モデルに目に見えない関連性バイアスをもたらすことを示す。
検索モデルのトレーニングデータにAI生成画像を含めると、目に見えない関連性バイアスが増す。
本研究では,目に見えない関連バイアスを軽減するための効果的なトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-23T16:22:58Z) - AI-Generated Images as Data Source: The Dawn of Synthetic Era [61.879821573066216]
生成AIは、現実世界の写真によく似た合成画像を作成する可能性を解き放った。
本稿では、これらのAI生成画像を新しいデータソースとして活用するという革新的な概念を探求する。
実際のデータとは対照的に、AI生成データには、未整合のアブリダンスやスケーラビリティなど、大きなメリットがある。
論文 参考訳(メタデータ) (2023-10-03T06:55:19Z) - BAGM: A Backdoor Attack for Manipulating Text-to-Image Generative Models [54.19289900203071]
テキストから画像への生成人工知能の普及は、大衆の関心を集めている。
ユーザを微妙に操作するコンテンツを生成するために,この技術を攻撃できることを実証する。
テキストから画像生成モデル(BAGM)に対するバックドアアタックを提案する。
我々の攻撃は、生成過程の3段階にわたる3つの一般的なテキスト・画像生成モデルをターゲットにした最初の攻撃である。
論文 参考訳(メタデータ) (2023-07-31T08:34:24Z) - Evaluating Data Attribution for Text-to-Image Models [62.844382063780365]
我々は,既存の大規模モデルを与えられた模範オブジェクトやスタイルにチューニングする「カストミゼーション」手法による属性評価を行う。
私たちのキーとなる洞察は、これによって、構築によって模範にコンピュータ的に影響される合成画像を効率的に作成できるということです。
問題の本質的な不確実性を考慮することで、一連のトレーニング画像に対してソフトな属性スコアを割り当てることができる。
論文 参考訳(メタデータ) (2023-06-15T17:59:51Z) - Mitigating Inappropriateness in Image Generation: Can there be Value in
Reflecting the World's Ugliness? [18.701950647429]
様々な生成テキスト・画像モデルに対して,大規模に不適切な変性を示す。
私たちは、人間の好みに合わせるために、世界の優美さのモデル表現を使用します。
論文 参考訳(メタデータ) (2023-05-28T13:35:50Z) - Will Large-scale Generative Models Corrupt Future Datasets? [5.593352892211305]
大規模テキスト画像生成モデルでは,ユーザのプロンプトから高品質でリアルな画像を生成することができる。
本論文は汚染を模擬してこの問題に実証的に答える。
生成した画像は下流のパフォーマンスに悪影響を及ぼすが、その重要性はタスクや生成した画像量に依存する。
論文 参考訳(メタデータ) (2022-11-15T12:25:33Z) - Inferring Offensiveness In Images From Natural Language Supervision [20.294073012815854]
ウェブから自動的に取り除かれた大規模な画像データセットには、カテゴリや攻撃的なイメージといった軽蔑的な用語が含まれる可能性がある。
我々は、事前学習されたトランスフォーマー自体が、大規模ビジョンデータセットの自動キュレーションのための方法論を提供することを示した。
論文 参考訳(メタデータ) (2021-10-08T16:19:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。