論文の概要: Invisible in Search? Auditing Aesthetic Bias in the Visual Representation of Holocaust Victims on Google
- arxiv url: http://arxiv.org/abs/2511.20036v1
- Date: Tue, 25 Nov 2025 08:04:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.351278
- Title: Invisible in Search? Auditing Aesthetic Bias in the Visual Representation of Holocaust Victims on Google
- Title(参考訳): Invisible in Search? Googleにおけるホロコースト被害者の視覚表現における美的バイアスの検証
- Authors: Mykola Makhortykh, Tobias Rohrbach, Maryna Sydorova,
- Abstract要約: ホロコーストの犠牲者の視覚的表現をGoogle上で比較監査する。
Googleは、残虐行為の文脈に重点を置いて、ホロコーストの犠牲者の男性支配的な表現を広める傾向にある。
また、地理的な位置をまたいだ表現のバリエーションも観察し、検索アルゴリズムが被害者の美意識を創出する可能性を示唆している。
- 参考スコア(独自算出の注目度): 0.07646713951724012
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Information retrieval systems, such as search engines, increasingly shape the representation of the past and present states of social reality. Despite their importance, these systems face challenges in dealing with the ethical aspects of representation due to various forms of bias, including aesthetic bias that perpetuates hegemonic patterns of representation. While most research on aesthetic bias has examined it in the context of current societal issues, it is also crucial for historical representation, particularly of sensitive subjects such as historical atrocities. To address this gap, we conduct a comparative audit of the visual representation of Holocaust victims on Google. We find that Google tends to propagate a male-dominated representation of Holocaust victims with an emphasis on atrocity context, risking rendering invisible gender-specific suffering and decreasing potential for nurturing empathy. We also observe a variation in representation across geographic locations, suggesting that search algorithms may produce their own aesthetic of victimhood.
- Abstract(参考訳): 検索エンジンのような情報検索システムは、過去と現在の社会現実の表現をますます形作っている。
それらの重要性にもかかわらず、これらのシステムは、ヘゲモニックな表現パターンを永続する美的バイアスを含む、様々な形のバイアスによる表現の倫理的側面に対処する際の課題に直面している。
審美的バイアスに関するほとんどの研究は、現在の社会問題という文脈でそれを検証しているが、歴史的表現、特に歴史的残虐行為のようなセンシティブな主題においても重要である。
このギャップに対処するため、Google上でホロコーストの犠牲者の視覚的表現を比較監査する。
Googleは、ホロコーストの犠牲者の男性支配的な表現を、残虐な文脈に重点を置いて広める傾向にあり、目に見えない性別特有の苦しみを表現し、共感を育む可能性を減らす傾向にある。
また、地理的な場所をまたいだ表現のバリエーションも観察し、検索アルゴリズムが犠牲者の美的側面を創出する可能性があることを示唆した。
関連論文リスト
- More of the Same: Persistent Representational Harms Under Increased Representation [12.071592182704707]
生成したテキストにおける分布レベルのグループ表現バイアスを克服するための評価手法を開発した。
モデルがバイオグラフィーを生成するように促されたときのジェンダー分布は、女性の大きな表現につながるが、表現バイアスでさえ、異なるジェンダーの表現方法に持続する。
論文 参考訳(メタデータ) (2025-03-01T03:45:35Z) - Lookism: The overlooked bias in computer vision [11.306732956100213]
ルックリズムはコンピュータビジョンでは探索されていないが、深い意味を持つ可能性がある。
本稿では,コンピュータビジョンモデルにおける重要なバイアスとして,ルックリズムの体系的研究を提唱する。
論文 参考訳(メタデータ) (2024-08-21T09:07:20Z) - Overview of PerpectiveArg2024: The First Shared Task on Perspective Argument Retrieval [56.66761232081188]
本稿では,社会における少数派・多数派を代表する年齢,性別,政治的態度など,人口・社会文化(社会)の多様性を包括する新しいデータセットを提案する。
パースペクティビズムを取り入れる上での重大な課題は、特に社会的なプロファイルを明示的に提供せずに、議論のテキストのみに基づくパーソナライズを目指す場合である。
パーソナライズと分極の低減を図るため, パーソナライズを最適化するためには, パーソナライズされた論証検索をブートストラップするが, さらなる研究が不可欠である。
論文 参考訳(メタデータ) (2024-07-29T03:14:57Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Are Commercial Face Detection Models as Biased as Academic Models? [64.71318433419636]
我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
論文 参考訳(メタデータ) (2022-01-25T02:21:42Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - Image Representations Learned With Unsupervised Pre-Training Contain
Human-like Biases [3.0349733976070015]
本研究では,社会概念の表現とイメージの属性の相関関係を定量化する手法を開発した。
一般的なベンチマーク画像データセットであるImageNetでトレーニングされた最先端の教師なしモデルは、人種、性別、交差点バイアスを自動的に学習する。
論文 参考訳(メタデータ) (2020-10-28T15:55:49Z) - Unsupervised Discovery of Implicit Gender Bias [38.59057512390926]
我々は、女性に対する性的偏見をコメントレベルで識別するために、教師なしのアプローチをとる。
主な課題は、データ内の他のアーティファクトではなく、暗黙のバイアスの兆候にモデルを集中させることです。
論文 参考訳(メタデータ) (2020-04-17T17:36:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。