論文の概要: Owls are wise and foxes are unfaithful: Uncovering animal stereotypes in vision-language models
- arxiv url: http://arxiv.org/abs/2501.12433v2
- Date: Tue, 29 Apr 2025 05:16:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-30 20:17:25.647233
- Title: Owls are wise and foxes are unfaithful: Uncovering animal stereotypes in vision-language models
- Title(参考訳): オウルは賢く、キツネは不誠実である:視覚言語モデルにおける動物のステレオタイプを明らかにする
- Authors: Tabinda Aman, Mohammad Nadeem, Shahab Saquib Sohail, Mohammad Anas, Erik Cambria,
- Abstract要約: 動物ステレオタイプが視覚言語モデルにどのように現れるのかを画像生成作業中に検討する。
この結果から, モデルが文化的バイアスに整合したイメージを連続的に生成する, 重要なステレオタイプインスタンスが明らかとなった。
- 参考スコア(独自算出の注目度): 22.241949236708443
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Animal stereotypes are deeply embedded in human culture and language. They often shape our perceptions and expectations of various species. Our study investigates how animal stereotypes manifest in vision-language models during the task of image generation. Through targeted prompts, we explore whether DALL-E perpetuates stereotypical representations of animals, such as "owls as wise," "foxes as unfaithful," etc. Our findings reveal significant stereotyped instances where the model consistently generates images aligned with cultural biases. The current work is the first of its kind to examine animal stereotyping in vision-language models systematically and to highlight a critical yet underexplored dimension of bias in AI-generated visual content.
- Abstract(参考訳): 動物のステレオタイプは人間の文化や言語に深く埋め込まれている。
それらはしばしば、様々な種の認識と期待を形作る。
本研究では,動物ステレオタイプが画像生成作業中に視覚言語モデルにどのように現れるかを検討する。
対象のプロンプトを通じて、DALL-Eは「賢く、愚かで、不誠実である」など、動物のステレオタイプ表現を永続するかどうかを探索する。
この結果から, モデルが文化的バイアスに整合したイメージを連続的に生成する, 重要なステレオタイプインスタンスが明らかとなった。
現在の研究は、視覚言語モデルにおける動物のステレオタイピングを体系的に検証し、AI生成された視覚コンテンツにおいて、批判的だが未発見の偏見の次元を強調する最初のものである。
関連論文リスト
- Gender Bias in Text-to-Video Generation Models: A case study of Sora [63.064204206220936]
本研究では,OpenAIのテキスト・ビデオ生成モデルであるSoraにおけるジェンダーバイアスの存在について検討した。
性別ニュートラルとステレオタイププロンプトの多種多様なセットから生成されたビデオを分析し、バイアスの有意な証拠を明らかにした。
論文 参考訳(メタデータ) (2024-12-30T18:08:13Z) - Who is better at math, Jenny or Jingzhen? Uncovering Stereotypes in Large Language Models [9.734705470760511]
我々はGlobalBiasを使って世界中の幅広いステレオタイプを研究しています。
与えられた名前に基づいて文字プロファイルを生成し、モデル出力におけるステレオタイプの有効性を評価する。
論文 参考訳(メタデータ) (2024-07-09T14:52:52Z) - ViSAGe: A Global-Scale Analysis of Visual Stereotypes in Text-to-Image Generation [24.862839173648467]
我々は、T2Iモデルにおける国籍に基づくステレオタイプの評価を可能にするために、ViSAGeデータセットを導入する。
また, 他の属性と比較して, ViSAGe のステレオタイプ属性は, 対応するアイデンティティの生成画像中に存在する可能性が示唆された。
論文 参考訳(メタデータ) (2024-01-12T00:43:57Z) - Will the Prince Get True Love's Kiss? On the Model Sensitivity to Gender Perturbation over Fairytale Texts [80.21033860436081]
本稿では, モデルが非現実的データ拡張を通じて, ジェンダーステレオタイプ摂動にどう反応するかを検討する。
実験結果から, 性別の摂動に直面すると, モデルの性能低下がわずかであることがわかった。
反現実的なトレーニングデータに基づいて微調整を行うと、モデルは反ステレオタイプな物語に対してより堅牢になる。
論文 参考訳(メタデータ) (2023-10-16T22:25:09Z) - T2IAT: Measuring Valence and Stereotypical Biases in Text-to-Image
Generation [11.109588924016254]
本稿では,概念とイメージ間の暗黙的なステレオタイプを定量化する新しいテキスト・ツー・イメージ・アソシエーション・テスト(T2IAT)フレームワークを提案する。
我々は、前述した生成モデルに対するバイアステストを再現し、花や昆虫に対する道徳的に中立なテストを含む。
これらの実験の結果は、画像生成における複雑なステレオタイプ的挙動の存在を実証している。
論文 参考訳(メタデータ) (2023-06-01T17:02:51Z) - MagicPony: Learning Articulated 3D Animals in the Wild [81.63322697335228]
そこで本研究では,オブジェクトカテゴリのワンビュー画像から,この予測器を純粋に学習するMagicPonyを提案する。
その中核は、明瞭な形状と外観を暗黙的に表現し、神経磁場とメッシュの強さを組み合わせたものである。
論文 参考訳(メタデータ) (2022-11-22T18:59:31Z) - Easily Accessible Text-to-Image Generation Amplifies Demographic
Stereotypes at Large Scale [61.555788332182395]
危険で複雑なステレオタイプを増幅する機械学習モデルの可能性を検討する。
さまざまな通常のプロンプトがステレオタイプを生成しており、それらは単に特性、記述子、職業、オブジェクトに言及するプロンプトを含む。
論文 参考訳(メタデータ) (2022-11-07T18:31:07Z) - How well can Text-to-Image Generative Models understand Ethical Natural
Language Interventions? [67.97752431429865]
倫理的介入を加える際の画像の多様性への影響について検討した。
予備研究は、モデル予測の大きな変化が「性別の無視」のような特定のフレーズによって引き起こされることを示している。
論文 参考訳(メタデータ) (2022-10-27T07:32:39Z) - DALL-Eval: Probing the Reasoning Skills and Social Biases of
Text-to-Image Generation Models [73.12069620086311]
テキスト・ツー・イメージ・モデルの視覚的推論能力と社会的バイアスについて検討する。
まず,物体認識,物体カウント,空間的関係理解という3つの視覚的推論スキルを計測する。
第2に、生成した画像の性別/肌の色調分布を測定することにより、性別と肌のトーンバイアスを評価する。
論文 参考訳(メタデータ) (2022-02-08T18:36:52Z) - Stepmothers are mean and academics are pretentious: What do pretrained
language models learn about you? [11.107926166222452]
本稿では,社会集団のステレオタイプ属性を構成する最初のデータセットについて述べる。
本研究では,事前学習された言語モデルによって符号化されたステレオタイプを教師なしで抽出する手法を提案する。
論文 参考訳(メタデータ) (2021-09-21T09:44:57Z) - Probing Contextual Language Models for Common Ground with Visual
Representations [76.05769268286038]
我々は、マッチングと非マッチングの視覚表現を区別する上で、テキストのみの表現がいかに効果的かを評価するための探索モデルを設計する。
以上の結果から,言語表現だけでは,適切な対象カテゴリから画像パッチを検索する強力な信号が得られることがわかった。
視覚的に接地された言語モデルは、例えば検索においてテキストのみの言語モデルよりわずかに優れているが、人間よりもはるかに低い。
論文 参考訳(メタデータ) (2020-05-01T21:28:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。