論文の概要: "Draw me a curator" Examining the visual stereotyping of a cultural services profession by generative AI
- arxiv url: http://arxiv.org/abs/2508.07132v1
- Date: Sun, 10 Aug 2025 00:43:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.718008
- Title: "Draw me a curator" Examining the visual stereotyping of a cultural services profession by generative AI
- Title(参考訳): 「キュレーターを作ろう」生成AIによる文化サービス専門職の視覚的ステレオタイピングの検討
- Authors: Dirk HR Spennemann,
- Abstract要約: 本稿では,230のヴィジュアライゼーションに基づいて,一般的な生成人工知能(AI)モデルであるChatGPT4oによる博物館キュレーターの描写について検討する。
AIが生成した表現は、キュレーターの一般的なステレオタイプを、オタクで、ドレスに保守的で、コレクションを振り回す時間に悩まされていると繰り返してはいないが、現実の人口統計学とは対照的である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Based on 230 visualisations, this paper examines the depiction of museum curators by the popular generative Artificial Intelligence (AI) model, ChatGPT4o. While the AI-generated representations do not reiterate popular stereotypes of curators as nerdy, conservative in dress and stuck in time rummaging through collections, they contrast sharply with real-world demographics. AI-generated imagery extremely underrepresents women (3.5% vs 49% to 72% in reality) and disregards ethnic communities other than Caucasian (0% vs 18% to 36%). It only over-represents young curators (79% vs approx. 27%) but also renders curators to resemble yuppie professionals or people featuring in fashion advertising. Stereotypical attributes are prevalent, with curators widely depicted as wearing beards and holding clipboards or digital tablets. The findings highlight biases in the generative AI image creation dataset, which is poised to shape an inaccurate portrayal of museum professionals if the images were to be taken uncritically at face value.
- Abstract(参考訳): 本稿では,230のヴィジュアライゼーションに基づいて,一般的な生成人工知能(AI)モデルであるChatGPT4oによる博物館キュレーターの描写について検討する。
AIが生成した表現は、キュレーターの人気のあるステレオタイプを、オタクで、ドレスに保守的で、コレクションを振り回す時間に悩まされていると繰り返してはいないが、現実の人口統計学とは対照的である。
AIが生成した画像は、女性(3.5%対49%対72%)を極めて過小評価しており、コーカサス人以外の民族社会(0%対18%対36%)を無視している。
若いキュレーター(約79%対約27%)を過剰に表現するだけでなく、キュレーターはユッピーのプロやファッション広告を特徴とする人に似ている。
立体的な属性が一般的であり、キュレーターはひげを生やし、クリップボードやデジタルタブレットを持っていると広く描写されている。
この発見は、生成するAI画像生成データセットのバイアスを浮き彫りにしている。
関連論文リスト
- Can we Debias Social Stereotypes in AI-Generated Images? Examining Text-to-Image Outputs and User Perceptions [6.87895735248661]
本稿では,T2I出力の社会的バイアスを評価するために,理論駆動型バイアス検出ルーブリックと社会ステレオタイプ指標(SSI)を提案する。
我々は,T2Iモデルの3つの主要なアウトプットを,地理的・職業的・形容詞的な3つのカテゴリにわたる100のクエリを用いて監査した。
迅速な改良はステレオタイプを緩和するが、コンテキストアライメントを制限することができる。
論文 参考訳(メタデータ) (2025-05-27T04:01:03Z) - She Works, He Works: A Curious Exploration of Gender Bias in AI-Generated Imagery [0.0]
本稿では, 建設作業員のAI画像における性別バイアスについて検討し, 男女の描写における相違点を明らかにする。
この分析は、グリセルダ・ポロックの視覚文化とジェンダーの理論に基づいており、AIモデルは女性の人物をより権威的で有能な人物として描写しながらセクシュアライズする傾向があることを示している。
論文 参考訳(メタデータ) (2024-07-26T05:56:18Z) - The Male CEO and the Female Assistant: Evaluation and Mitigation of Gender Biases in Text-To-Image Generation of Dual Subjects [58.27353205269664]
本稿では,Paired Stereotype Test (PST) フレームワークを提案する。
PSTクエリT2Iモデルは、男性ステレオタイプと女性ステレオタイプに割り当てられた2つの個人を描写する。
PSTを用いて、ジェンダーバイアスの2つの側面、つまり、ジェンダーの職業におけるよく知られたバイアスと、組織力におけるバイアスという新しい側面を評価する。
論文 参考訳(メタデータ) (2024-02-16T21:32:27Z) - Organic or Diffused: Can We Distinguish Human Art from AI-generated Images? [24.417027069545117]
AIが生成した画像を人間のアートから取り除くことは、難しい問題だ。
この問題に対処できないため、悪いアクターは、AIイメージを禁止したポリシーを掲げる人間芸術や企業に対してプレミアムを支払う個人を欺くことができる。
7つのスタイルにまたがって実際の人間のアートをキュレートし、5つの生成モデルからマッチング画像を生成し、8つの検出器を適用します。
論文 参考訳(メタデータ) (2024-02-05T17:25:04Z) - AI-generated faces influence gender stereotypes and racial homogenization [1.6647208383676708]
6つの人種、2つの性別、32の専門職、8つの属性にまたがる安定拡散の重大なバイアスを文書化しています。
この分析は、ほぼすべての中東の男性がひげを生やし、茶色く肌を生やし、伝統的な服装を身に着けている、重要な人種的均質化を示している。
本稿では、画像を生成する際に、人種や性別の望ましい分布をユーザが指定できるようにデバイアス化ソリューションを提案する。
論文 参考訳(メタデータ) (2024-02-01T20:32:14Z) - Seeing is not always believing: Benchmarking Human and Model Perception
of AI-Generated Images [66.20578637253831]
人工知能(AI)技術の進歩が偽写真を生み出すのではないかという懸念が高まっている。
本研究の目的は、最先端のAI生成視覚コンテンツを識別するためのエージェントを包括的に評価することである。
論文 参考訳(メタデータ) (2023-04-25T17:51:59Z) - Easily Accessible Text-to-Image Generation Amplifies Demographic
Stereotypes at Large Scale [61.555788332182395]
危険で複雑なステレオタイプを増幅する機械学習モデルの可能性を検討する。
さまざまな通常のプロンプトがステレオタイプを生成しており、それらは単に特性、記述子、職業、オブジェクトに言及するプロンプトを含む。
論文 参考訳(メタデータ) (2022-11-07T18:31:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。