論文の概要: Owls are wise and foxes are unfaithful: Uncovering animal stereotypes in vision-language models
- arxiv url: http://arxiv.org/abs/2501.12433v1
- Date: Tue, 21 Jan 2025 18:41:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-23 16:53:58.468693
- Title: Owls are wise and foxes are unfaithful: Uncovering animal stereotypes in vision-language models
- Title(参考訳): オウルは賢く、キツネは不誠実である:視覚言語モデルにおける動物のステレオタイプを明らかにする
- Authors: Tabinda Aman, Mohammad Nadeem, Shahab Saquib Sohail, Mohammad Anas, Erik Cambria,
- Abstract要約: 動物ステレオタイプが視覚言語モデルにどのように現れるのかを画像生成作業中に検討する。
この結果から, モデルが文化的バイアスに整合したイメージを連続的に生成する, 重要なステレオタイプインスタンスが明らかとなった。
- 参考スコア(独自算出の注目度): 22.241949236708443
- License:
- Abstract: Animal stereotypes are deeply embedded in human culture and language. They often shape our perceptions and expectations of various species. Our study investigates how animal stereotypes manifest in vision-language models during the task of image generation. Through targeted prompts, we explore whether DALL-E perpetuates stereotypical representations of animals, such as "owls as wise," "foxes as unfaithful," etc. Our findings reveal significant stereotyped instances where the model consistently generates images aligned with cultural biases. The current work is the first of its kind to examine animal stereotyping in vision-language models systematically and to highlight a critical yet underexplored dimension of bias in AI-generated visual content.
- Abstract(参考訳): 動物のステレオタイプは人間の文化や言語に深く埋め込まれている。
それらはしばしば、様々な種の認識と期待を形作る。
本研究では,動物ステレオタイプが画像生成作業中に視覚言語モデルにどのように現れるかを検討する。
対象のプロンプトを通じて、DALL-Eは「賢く、愚かで、不誠実である」など、動物のステレオタイプ表現を永続するかどうかを探索する。
この結果から, モデルが文化的バイアスに整合したイメージを連続的に生成する, 重要なステレオタイプインスタンスが明らかとなった。
現在の研究は、視覚言語モデルにおける動物のステレオタイピングを体系的に検証し、AI生成された視覚コンテンツにおいて、批判的だが未発見の偏見の次元を強調する最初のものである。
関連論文リスト
- When Does Perceptual Alignment Benefit Vision Representations? [76.32336818860965]
視覚モデル表現と人間の知覚的判断との整合がユーザビリティに与える影響について検討する。
モデルと知覚的判断を一致させることで、多くの下流タスクで元のバックボーンを改善する表現が得られることがわかった。
その結果,人間の知覚的知識に関する帰納バイアスを視覚モデルに注入することは,より良い表現に寄与することが示唆された。
論文 参考訳(メタデータ) (2024-10-14T17:59:58Z) - Spoken Stereoset: On Evaluating Social Bias Toward Speaker in Speech Large Language Models [50.40276881893513]
本研究では,音声大言語モデル(SLLM)における社会的バイアスの評価を目的としたデータセットであるSpken Stereosetを紹介する。
多様な人口集団の発話に対して異なるモデルがどのように反応するかを調べることで、これらのバイアスを特定することを目指している。
これらの結果から,ほとんどのモデルではバイアスが最小であるが,ステレオタイプや反ステレオタイプ傾向がわずかにみられた。
論文 参考訳(メタデータ) (2024-08-14T16:55:06Z) - Who is better at math, Jenny or Jingzhen? Uncovering Stereotypes in Large Language Models [9.734705470760511]
我々はGlobalBiasを使って世界中の幅広いステレオタイプを研究しています。
与えられた名前に基づいて文字プロファイルを生成し、モデル出力におけるステレオタイプの有効性を評価する。
論文 参考訳(メタデータ) (2024-07-09T14:52:52Z) - T2IAT: Measuring Valence and Stereotypical Biases in Text-to-Image
Generation [11.109588924016254]
本稿では,概念とイメージ間の暗黙的なステレオタイプを定量化する新しいテキスト・ツー・イメージ・アソシエーション・テスト(T2IAT)フレームワークを提案する。
我々は、前述した生成モデルに対するバイアステストを再現し、花や昆虫に対する道徳的に中立なテストを含む。
これらの実験の結果は、画像生成における複雑なステレオタイプ的挙動の存在を実証している。
論文 参考訳(メタデータ) (2023-06-01T17:02:51Z) - MagicPony: Learning Articulated 3D Animals in the Wild [81.63322697335228]
そこで本研究では,オブジェクトカテゴリのワンビュー画像から,この予測器を純粋に学習するMagicPonyを提案する。
その中核は、明瞭な形状と外観を暗黙的に表現し、神経磁場とメッシュの強さを組み合わせたものである。
論文 参考訳(メタデータ) (2022-11-22T18:59:31Z) - Easily Accessible Text-to-Image Generation Amplifies Demographic
Stereotypes at Large Scale [61.555788332182395]
危険で複雑なステレオタイプを増幅する機械学習モデルの可能性を検討する。
さまざまな通常のプロンプトがステレオタイプを生成しており、それらは単に特性、記述子、職業、オブジェクトに言及するプロンプトを含む。
論文 参考訳(メタデータ) (2022-11-07T18:31:07Z) - How well can Text-to-Image Generative Models understand Ethical Natural
Language Interventions? [67.97752431429865]
倫理的介入を加える際の画像の多様性への影響について検討した。
予備研究は、モデル予測の大きな変化が「性別の無視」のような特定のフレーズによって引き起こされることを示している。
論文 参考訳(メタデータ) (2022-10-27T07:32:39Z) - Stepmothers are mean and academics are pretentious: What do pretrained
language models learn about you? [11.107926166222452]
本稿では,社会集団のステレオタイプ属性を構成する最初のデータセットについて述べる。
本研究では,事前学習された言語モデルによって符号化されたステレオタイプを教師なしで抽出する手法を提案する。
論文 参考訳(メタデータ) (2021-09-21T09:44:57Z) - Probing Contextual Language Models for Common Ground with Visual
Representations [76.05769268286038]
我々は、マッチングと非マッチングの視覚表現を区別する上で、テキストのみの表現がいかに効果的かを評価するための探索モデルを設計する。
以上の結果から,言語表現だけでは,適切な対象カテゴリから画像パッチを検索する強力な信号が得られることがわかった。
視覚的に接地された言語モデルは、例えば検索においてテキストのみの言語モデルよりわずかに優れているが、人間よりもはるかに低い。
論文 参考訳(メタデータ) (2020-05-01T21:28:28Z) - StereoSet: Measuring stereotypical bias in pretrained language models [24.020149562072127]
我々は,4つの領域におけるステレオタイプバイアスを測定するために,英語の大規模自然データセットであるStereoSetを提案する。
我々は,BERT,GPT-2,RoBERTa,XLNetなどの人気モデルをデータセット上で評価し,これらのモデルが強いステレオタイプバイアスを示すことを示す。
論文 参考訳(メタデータ) (2020-04-20T17:14:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。