論文の概要: Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by
Ranking Algorithms
- arxiv url: http://arxiv.org/abs/2009.01334v1
- Date: Wed, 2 Sep 2020 20:45:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-04 00:53:55.254302
- Title: Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by
Ranking Algorithms
- Title(参考訳): ジェンダーステレオタイプの強化:ランク付けアルゴリズムによるジェンダーバイアスの測定
- Authors: Alessandro Fabris, Alberto Purpura, Gianmaria Silvello, Gian Antonio
Susto
- Abstract要約: 本稿では,性別ステレオタイプをサポートする検索エンジンの傾向を定量化するジェンダーステレオタイプ強化(GSR)尺度を提案する。
GSRは、表現上の害を定量化できる情報検索のための、最初の特別に調整された尺度である。
- 参考スコア(独自算出の注目度): 68.85295025020942
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Search Engines (SE) have been shown to perpetuate well-known gender
stereotypes identified in psychology literature and to influence users
accordingly. Similar biases were found encoded in Word Embeddings (WEs) learned
from large online corpora. In this context, we propose the Gender Stereotype
Reinforcement (GSR) measure, which quantifies the tendency of a SE to support
gender stereotypes, leveraging gender-related information encoded in WEs.
Through the critical lens of construct validity, we validate the proposed
measure on synthetic and real collections. Subsequently, we use GSR to compare
widely-used Information Retrieval ranking algorithms, including lexical,
semantic, and neural models. We check if and how ranking algorithms based on
WEs inherit the biases of the underlying embeddings. We also consider the most
common debiasing approaches for WEs proposed in the literature and test their
impact in terms of GSR and common performance measures. To the best of our
knowledge, GSR is the first specifically tailored measure for IR, capable of
quantifying representational harms.
- Abstract(参考訳): 検索エンジン (SE) は、心理学文献においてよく知られた性別のステレオタイプを永続し、それに応じてユーザーに影響を与えることが示されている。
同様のバイアスは、大規模なオンラインコーパスから学んだWord Embeddings (WEs)にエンコードされている。
本稿では,性別ステレオタイプをサポートするSEの傾向を定量化し,WESで符号化された性別関連情報を活用するジェンダーステレオタイプ強化(GSR)尺度を提案する。
構成妥当性の臨界レンズを用いて,合成および実コレクションに関する提案手法を検証した。
その後,gsrを用いて,語彙,意味,ニューラルモデルなど,広く用いられている情報検索ランキングアルゴリズムを比較する。
WEsに基づくランキングアルゴリズムが、基礎となる埋め込みのバイアスを継承するかどうかと方法を確認する。
また,本論文で提案するwesの最も一般的なデバイアスアプローチを考察し,gsrと共通評価尺度を用いてその影響を検証した。
我々の知識を最大限に活用するために、GSRは、表現的害を定量化できるIRの最初の特別に調整された尺度である。
関連論文リスト
- The Root Shapes the Fruit: On the Persistence of Gender-Exclusive Harms in Aligned Language Models [58.130894823145205]
我々はトランスジェンダー、ノンバイナリ、その他のジェンダー・ディバースのアイデンティティを中心とし、アライメント手順が既存のジェンダー・ディバースバイアスとどのように相互作用するかを検討する。
以上の結果から,DPO対応モデルは特に教師付き微調整に敏感であることが示唆された。
DPOとより広範なアライメントプラクティスに合わせたレコメンデーションで締めくくります。
論文 参考訳(メタデータ) (2024-11-06T06:50:50Z) - GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - Towards Region-aware Bias Evaluation Metrics [26.91545185271231]
性別バイアスの地域差を同定し,バイアス評価のための地域別ボトムアップアプローチを提案する。
提案手法は,ある地域におけるジェンダー・アライメント・トピックを使用し,トピック・ペアの形でジェンダー・バイアス・ディメンションを識別する。
提案するバイアストピックペアのいくつかは、既存のものと比較して、これらの領域における性別バイアスに対する人間の認識に匹敵するものである。
論文 参考訳(メタデータ) (2024-06-23T16:26:27Z) - ''Fifty Shades of Bias'': Normative Ratings of Gender Bias in GPT
Generated English Text [11.085070600065801]
言語は、社会的信念システムの顕在化のための強力なツールとして機能する。
ジェンダーバイアスは、私たちの社会でもっとも普及しているバイアスの1つです。
我々は、GPT生成した英語テキストの最初のデータセットを作成し、男女バイアスの規範的評価を行う。
論文 参考訳(メタデータ) (2023-10-26T14:34:06Z) - Diversity matters: Robustness of bias measurements in Wikidata [4.950095974653716]
7大陸から選択された13の異なる人口層に対して、ウィキデータに表されるデータのバイアスを明らかにする。
我々は、13の人口層から採取された多数の職業について、センシティブな属性、すなわち性別に関する広範な実験を行う。
我々は,現在最先端のKG埋め込みアルゴリズムの選択が,性別に関わらず,偏りのある職業のランク付けに強い影響を与えることを示した。
論文 参考訳(メタデータ) (2023-02-27T18:38:10Z) - Auditing Gender Presentation Differences in Text-to-Image Models [54.16959473093973]
我々は、テキスト・ツー・イメージ・モデルにおいて、ジェンダーがどのように異なる形で提示されるかを研究する。
入力テキスト中の性指標を探索することにより、プレゼンテーション中心属性の周波数差を定量化する。
このような違いを推定する自動手法を提案する。
論文 参考訳(メタデータ) (2023-02-07T18:52:22Z) - Social Biases in Automatic Evaluation Metrics for NLG [53.76118154594404]
本稿では,単語埋め込みアソシエーションテスト(WEAT)と文埋め込みアソシエーションテスト(SEAT)に基づく評価手法を提案する。
我々は、画像キャプションやテキスト要約タスクにおける性別バイアスの影響を調査するために、性別対応メタ評価データセットを構築した。
論文 参考訳(メタデータ) (2022-10-17T08:55:26Z) - Gender Bias in Text: Labeled Datasets and Lexicons [0.30458514384586394]
性別バイアスの自動検出には、性別バイアスデータセットと語彙の欠如がある。
関連文の収集,注釈付け,拡張によりラベル付きデータセットと網羅的辞書を提供する。
リリースされたデータセットとレキシコンは、Generic He、Generic She、Explicit Marking of Sex、Gendered Neologismsなど、複数のバイアスサブタイプにまたがっている。
論文 参考訳(メタデータ) (2022-01-21T12:44:51Z) - Social Norm Bias: Residual Harms of Fairness-Aware Algorithms [21.50551404445654]
社会ノームバイアス (Social Norm Bias, SNoB) は、自動意思決定システムによって示される、微妙だが連続的な差別の一種である。
我々は、アルゴリズムの予測が性規範とどのように関連しているかを測定することでSNoBを定量化する。
後処理の介入は、この種のバイアスを全く軽減しないことを示す。
論文 参考訳(メタデータ) (2021-08-25T05:54:56Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。