論文の概要: Wikigender: A Machine Learning Model to Detect Gender Bias in Wikipedia
- arxiv url: http://arxiv.org/abs/2211.07520v1
- Date: Mon, 14 Nov 2022 16:49:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 12:26:20.925678
- Title: Wikigender: A Machine Learning Model to Detect Gender Bias in Wikipedia
- Title(参考訳): Wikigender:Wikipediaのジェンダーバイアスを検出する機械学習モデル
- Authors: Natalie Bol\'on Brun, Sofia Kypraiou, Natalia Gull\'on Alt\'es, Irene
Petlacalco Barrios
- Abstract要約: 機械学習モデルを使用して、男女のウィキペディアでの描写方法に違いがあることを証明する。
モデルへの入力として形容詞のみを用いることで,女性を描写する形容詞は,男性を描写する形容詞よりも主観性が高いことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The way Wikipedia's contributors think can influence how they describe
individuals resulting in a bias based on gender. We use a machine learning
model to prove that there is a difference in how women and men are portrayed on
Wikipedia. Additionally, we use the results of the model to obtain which words
create bias in the overview of the biographies of the English Wikipedia. Using
only adjectives as input to the model, we show that the adjectives used to
portray women have a higher subjectivity than the ones used to describe men.
Extracting topics from the overview using nouns and adjectives as input to the
model, we obtain that women are related to family while men are related to
business and sports.
- Abstract(参考訳): ウィキペディアのコントリビュータの考え方は、性別に基づく偏見をもたらす個人の記述方法に影響を与える可能性がある。
私たちは、ウィキペディアで女性と男性の描写方法に違いがあることを証明するために、機械学習モデルを使用します。
また、このモデルの結果を用いて、英語ウィキペディアの伝記の概観において、どの単語がバイアスを生じさせるかを得る。
モデルへの入力として形容詞のみを用い,女性を表す形容詞は男性を表すものよりも主観性が高いことを示した。
モデルへのインプットとして名詞と形容詞を用いて概観からトピックを抽出することにより,女性は家族関連であり,男性はビジネスやスポーツ関連であることがわかった。
関連論文リスト
- Gender Bias in Decision-Making with Large Language Models: A Study of Relationship Conflicts [15.676219253088211]
大規模言語モデル(LLM)におけるジェンダーエクイティを意思決定レンズを用いて検討する。
我々は3つの名前リスト(男性、女性、中立)にまたがる名前ペアを通して9つの関係構成を探索する。
論文 参考訳(メタデータ) (2024-10-14T20:50:11Z) - What an Elegant Bridge: Multilingual LLMs are Biased Similarly in Different Languages [51.0349882045866]
本稿では,Large Language Models (LLMs) の文法的ジェンダーのレンズによるバイアスについて検討する。
様々な言語における形容詞を持つ名詞を記述するためのモデルを提案し,特に文法性のある言語に焦点を当てた。
単純な分類器は、偶然以上の名詞の性別を予測できるだけでなく、言語間の移動可能性も示せる。
論文 参考訳(メタデータ) (2024-07-12T22:10:16Z) - The Causal Influence of Grammatical Gender on Distributional Semantics [87.8027818528463]
言語間のジェンダー割り当てがどの程度意味を持つかは、言語学と認知科学における研究の活発な領域である。
我々は、名詞の文法的性別、意味、形容詞選択の間の相互作用を共同で表現する、新しい因果的グラフィカルモデルを提供する。
名詞の意味を制御した場合、文法的性別と形容詞的選択の関係は、ほぼゼロであり、無意味である。
論文 参考訳(メタデータ) (2023-11-30T13:58:13Z) - Will the Prince Get True Love's Kiss? On the Model Sensitivity to Gender
Perturbation over Fairytale Texts [87.62403265382734]
近年の研究では、伝統的な妖精は有害な性バイアスを伴っていることが示されている。
本研究は,ジェンダーの摂動に対する頑健さを評価することによって,言語モデルの学習バイアスを評価することを目的とする。
論文 参考訳(メタデータ) (2023-10-16T22:25:09Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Run Like a Girl! Sports-Related Gender Bias in Language and Vision [5.762984849322816]
ジェンダーバイアスを2つの言語とビジョンのデータセットで分析する。
両者のデータセットは女性を過小評価しており、女性の視認を促進する。
これらの命名データに基づいて訓練された計算モデルはバイアスを再現する。
論文 参考訳(メタデータ) (2023-05-23T18:52:11Z) - Model-Agnostic Gender Debiased Image Captioning [29.640940966944697]
イメージキャプションモデルは、トレーニングセットにおける有害な社会的バイアスを永続化し、増幅することが知られている。
我々は、合成バイアスされたサンプルから学習し、両方のバイアスを減少させるLIBRAというフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-07T15:30:49Z) - Don't Forget About Pronouns: Removing Gender Bias in Language Models
Without Losing Factual Gender Information [4.391102490444539]
英語のテキストでは、ジェンダー情報とジェンダーバイアスの2つのタイプに焦点を当てている。
ジェンダーシグナルを保存しながら表現のステレオタイプバイアスを小さくすることを目的としている。
論文 参考訳(メタデータ) (2022-06-21T21:38:25Z) - Uncovering Implicit Gender Bias in Narratives through Commonsense
Inference [21.18458377708873]
モデル生成物語における主人公に関連する性別バイアスについて検討する。
暗黙のバイアスに注目し、コモンセンス推論エンジンを使ってそれらを明らかにする。
論文 参考訳(メタデータ) (2021-09-14T04:57:45Z) - Quantifying Gender Bias Towards Politicians in Cross-Lingual Language
Models [104.41668491794974]
代名詞として政治家の名前を取り巻く言語モデルによって生成される形容詞と動詞の用法を定量化する。
死者や指定された言葉が男女の政治家と関連しているのに対し、美人や離婚といった特定の言葉が主に女性政治家に関係していることが判明した。
論文 参考訳(メタデータ) (2021-04-15T15:03:26Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。