論文の概要: Are All Genders Equal in the Eyes of Algorithms? -- Analysing Search and Retrieval Algorithms for Algorithmic Gender Fairness
- arxiv url: http://arxiv.org/abs/2508.05680v1
- Date: Tue, 05 Aug 2025 15:33:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:05.924978
- Title: Are All Genders Equal in the Eyes of Algorithms? -- Analysing Search and Retrieval Algorithms for Algorithmic Gender Fairness
- Title(参考訳): すべてのジェンダーはアルゴリズムの目で等しくなるか? -- アルゴリズム的ジェンダーフェアネスの探索と検索アルゴリズムの解析
- Authors: Stefanie Urchs, Veronika Thurner, Matthias Aßenmacher, Ludwig Bothmann, Christian Heumann, Stephanie Thiemichen,
- Abstract要約: 本稿では,アルゴリズムによる性公正のバイアス保存的定義を導入し,適用する。
我々は、メタデータの完全性、学術データベースでの公開検索、Google検索結果の可視性における男女差を分析した。
男性教授はより多くの検索結果とより整列した出版記録に関連付けられ、女性教授はデジタル視認性においてより多様性を示す。
- 参考スコア(独自算出の注目度): 0.1979158763744267
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Algorithmic systems such as search engines and information retrieval platforms significantly influence academic visibility and the dissemination of knowledge. Despite assumptions of neutrality, these systems can reproduce or reinforce societal biases, including those related to gender. This paper introduces and applies a bias-preserving definition of algorithmic gender fairness, which assesses whether algorithmic outputs reflect real-world gender distributions without introducing or amplifying disparities. Using a heterogeneous dataset of academic profiles from German universities and universities of applied sciences, we analyse gender differences in metadata completeness, publication retrieval in academic databases, and visibility in Google search results. While we observe no overt algorithmic discrimination, our findings reveal subtle but consistent imbalances: male professors are associated with a greater number of search results and more aligned publication records, while female professors display higher variability in digital visibility. These patterns reflect the interplay between platform algorithms, institutional curation, and individual self-presentation. Our study highlights the need for fairness evaluations that account for both technical performance and representational equality in digital systems.
- Abstract(参考訳): 検索エンジンや情報検索プラットフォームのようなアルゴリズムシステムは、学術的な可視性と知識の普及に大きな影響を及ぼす。
中立性の仮定にもかかわらず、これらのシステムはジェンダーに関連するものを含む社会的バイアスを再現または強化することができる。
本稿では,アルゴリズム出力が現実のジェンダー分布を反映するかどうかを,不均一性の導入や増幅を伴わずに評価するアルゴリズム的ジェンダーフェアネスのバイアス保存定義を導入し,適用する。
ドイツ大学や応用科学大学の学術プロファイルの異種データセットを用いて、メタデータの完全性、学術データベースでの公開検索、Google検索結果の可視性といった性差を分析した。
男性教授は、より多くの検索結果と、より整列した公開記録に関連付けられており、女性教授は、デジタル視認性においてより多様性を示す。
これらのパターンは、プラットフォームアルゴリズム、制度的キュレーション、個人の自己表現の相互作用を反映している。
本研究は,デジタルシステムにおける技術的性能と表現的平等の両方を考慮した公平性評価の必要性を強調した。
関連論文リスト
- On the "Illusion" of Gender Bias in Face Recognition: Explaining the Fairness Issue Through Non-demographic Attributes [7.602456562464879]
顔認識システムは、ユーザの性別に基づいて、かなりの精度の差を示す。
顔の属性を効果的にデコレーションし、集約し、バイアスの少ない性別分析を可能にするツールチェーンを提案する。
実験の結果,男女のイメージが特定の属性を共有すると,男女差は消失することがわかった。
論文 参考訳(メタデータ) (2025-01-21T10:21:19Z) - Finding the white male: The prevalence and consequences of algorithmic gender and race bias in political Google searches [0.0]
本稿では,4つの研究のシリーズにおいて,少数化群のアルゴリズム表現の枠組みを提案し,検証する。
第一に、2つのアルゴリズムによる政治画像検索の監査は、検索エンジンが女性や非白人の政治家を軽視して、構造的不平等を反映し、維持していることを示す。
第二に、2つのオンライン実験は、これらのバイアスが、アルゴリズム表現の偏見によって、政治的現実の認識を歪め、白人で男性化された政治観を積極的に補強することを示している。
論文 参考訳(メタデータ) (2024-05-01T05:57:03Z) - Assessing Gender Bias in Predictive Algorithms using eXplainable AI [1.9798034349981162]
予測アルゴリズムは、医学や教育など様々な分野で利益をもたらす強力な可能性を秘めている。
彼らは人間に存在する偏見と偏見を継承することができる。
結果は、不公平な結果を生み出すエラーを体系的に繰り返すことができます。
論文 参考訳(メタデータ) (2022-03-19T07:47:45Z) - Are Commercial Face Detection Models as Biased as Academic Models? [64.71318433419636]
我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
論文 参考訳(メタデータ) (2022-01-25T02:21:42Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - Beyond Algorithmic Bias: A Socio-Computational Interrogation of the
Google Search by Image Algorithm [0.799536002595393]
アルゴリズムを、すべての年齢と4種以上の人種の40万以上の顔で提示することで、監査する。
このアルゴリズムは、しばしば、女性および非白人個人を単純化し、ステレオタイピングし、識別する、白人男性の家長構造を再現する。
論文 参考訳(メタデータ) (2021-05-26T21:40:43Z) - Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by
Ranking Algorithms [68.85295025020942]
本稿では,性別ステレオタイプをサポートする検索エンジンの傾向を定量化するジェンダーステレオタイプ強化(GSR)尺度を提案する。
GSRは、表現上の害を定量化できる情報検索のための、最初の特別に調整された尺度である。
論文 参考訳(メタデータ) (2020-09-02T20:45:04Z) - Towards causal benchmarking of bias in face analysis algorithms [54.19499274513654]
顔分析アルゴリズムのアルゴリズムバイアスを測定する実験手法を開発した。
提案手法は,一致したサンプル画像の合成トランスクター'を生成することに基づく。
性別分類アルゴリズムの偏見を従来の観察法を用いて分析することにより,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-07-13T17:10:34Z) - Mitigating Gender Bias in Machine Learning Data Sets [5.075506385456811]
ジェンダーバイアスは雇用広告や採用ツールの文脈で特定されている。
本稿では,機械学習のためのトレーニングデータにおける性別バイアスの同定のための枠組みを提案する。
論文 参考訳(メタデータ) (2020-05-14T12:06:02Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。