論文の概要: Men Are Elected, Women Are Married: Events Gender Bias on Wikipedia
- arxiv url: http://arxiv.org/abs/2106.01601v1
- Date: Thu, 3 Jun 2021 05:22:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-04 16:25:29.501839
- Title: Men Are Elected, Women Are Married: Events Gender Bias on Wikipedia
- Title(参考訳): 男性、女性、結婚:ウィキペディアのジェンダーバイアス
- Authors: Jiao Sun and Nanyun Peng
- Abstract要約: ウィキペディアのコーパスにおいて,ジェンダーバイアスに関する最初のイベント中心の研究を提示する。
我々は、最先端のイベント検出モデルを用いてイベントを検出し、戦略的に生成されたテンプレートを用いて結果を校正し、性別と非対称な関係を持つイベントを抽出する。
- 参考スコア(独自算出の注目度): 16.892630505629224
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human activities can be seen as sequences of events, which are crucial to
understanding societies. Disproportional event distribution for different
demographic groups can manifest and amplify social stereotypes, and potentially
jeopardize the ability of members in some groups to pursue certain goals. In
this paper, we present the first event-centric study of gender biases in a
Wikipedia corpus. To facilitate the study, we curate a corpus of career and
personal life descriptions with demographic information consisting of 7,854
fragments from 10,412 celebrities. Then we detect events with a
state-of-the-art event detection model, calibrate the results using
strategically generated templates, and extract events that have asymmetric
associations with genders. Our study discovers that the Wikipedia pages tend to
intermingle personal life events with professional events for females but not
for males, which calls for the awareness of the Wikipedia community to
formalize guidelines and train the editors to mind the implicit biases that
contributors carry. Our work also lays the foundation for future works on
quantifying and discovering event biases at the corpus level.
- Abstract(参考訳): 人間の活動は、社会を理解する上で重要な出来事の連続と見なすことができる。
異なる集団に対する不釣り合いな出来事の分布は、社会的ステレオタイプを顕在化し、増幅し、あるグループのメンバーが特定の目標を追求する能力を損なう可能性がある。
本稿では,wikipediaコーパスにおけるジェンダーバイアスに関する最初のイベント中心の研究について述べる。
本研究では,10,412人の有名人の7,854個の断片からなる人口統計情報を用いて,キャリアと個人の生活記述のコーパスをキュレートする。
次に、最先端のイベント検出モデルを用いてイベントを検出し、戦略的に生成されたテンプレートを使用して結果を校正し、性別に非対称なイベントを抽出する。
この研究は、ウィキペディアのページが女性向けではなく、女性向けのプロイベントと個人的な生活イベントを混ざり合う傾向があることを発見し、ウィキペディアコミュニティがガイドラインを定式化し、編集者に貢献者が持つ暗黙の偏見を念頭に置くように訓練するよう求めている。
私たちの研究は、コーパスレベルでのイベントバイアスの定量化と発見に関する将来の研究の基盤も築いています。
関連論文リスト
- Survival of the Notable: Gender Asymmetry in Wikipedia Collective Deliberations [0.0]
ウィキペディアにおける削除記事(AfD)の議論により、編集者は既存の記事の可読性を評価することができる。
編集長が女性削除の合意に達するまでに長い時間を要するにもかかわらず、女性の伝記は男性よりも早く削除にノミネートされていることが判明した。
歴史人物に関するAfDは、議論中の伝記を他の百科事典にリダイレクトまたはマージする傾向が強い。
論文 参考訳(メタデータ) (2024-11-07T00:37:24Z) - GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Wikibio: a Semantic Resource for the Intersectional Analysis of
Biographical Events [3.8455936323976694]
文献的事象検出のための新しいコーパスを提示する。
このモデルでは、Fスコア0.808のバイオグラフィーでターゲットエンティリティのすべての言及を検出することができた。
また、ウィキペディアの伝記の中で、女性と非西洋人の偏見の分析にも使用された。
論文 参考訳(メタデータ) (2023-06-15T20:59:37Z) - Are Fairy Tales Fair? Analyzing Gender Bias in Temporal Narrative Event
Chains of Children's Fairy Tales [46.65377334112404]
社会的バイアスやステレオタイプは、私たちの物語における彼らの存在を通じて、私たちの文化に埋め込まれています。
そこで本稿では,各キャラクタに対して,物語の時間的動詞に基づくイベントチェーンを自動的に抽出する計算パイプラインを提案する。
また、従来のステレオタイプと整合するカテゴリを含むことで、バイアス分析を容易にする動詞ベースのイベントアノテーションスキームを提案する。
論文 参考訳(メタデータ) (2023-05-26T05:29:37Z) - It's the Same Old Story! Enriching Event-Centric Knowledge Graphs by
Narrative Aspects [0.3655021726150368]
イベント中心の知識グラフのための新しい軽量な構造を導入し,視点依存と物語的側面を取り入れたクエリを初めて実現した。
本実験は、イベント参加者に対する主観的帰属の効果的な取り込みを証明し、物語クエリ処理に特化して調整された指標の利点を示すものである。
論文 参考訳(メタデータ) (2022-05-08T14:00:41Z) - How True is GPT-2? An Empirical Analysis of Intersectional Occupational
Biases [50.591267188664666]
下流のアプリケーションは、自然言語モデルに含まれるバイアスを継承するリスクがある。
一般的な生成言語モデルであるGPT-2の作業バイアスを分析した。
特定の仕事について、GPT-2は米国におけるジェンダーと民族の社会的偏見を反映しており、場合によってはジェンダー・パリティの傾向を反映している。
論文 参考訳(メタデータ) (2021-02-08T11:10:27Z) - Controlled Analyses of Social Biases in Wikipedia Bios [27.591896251854724]
ウィキペディアの伝記ページの分析において,共起変数の効果を低減する手法を提案する。
本研究では,比較コーパスと目的コーパスとの適合度を測定する指標の開発により,提案手法を評価する。
以上の結果から,共起変数に対する制御の失敗は,異なる結論とマスクバイアスをもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2020-12-31T21:27:12Z) - Gender bias in magazines oriented to men and women: a computational
approach [58.720142291102135]
女性指向の雑誌の内容と男性指向の雑誌の内容を比較する。
トピック・モデリングの手法により、雑誌で議論されている主要なテーマを特定し、これらのトピックの存在が時間とともに雑誌間でどの程度異なるかを定量化する。
以上の結果から,セクシュアオブジェクトとしての家族,ビジネス,女性の出現頻度は,時間とともに消失する傾向にあることが示唆された。
論文 参考訳(メタデータ) (2020-11-24T14:02:49Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。