論文の概要: Controlled Analyses of Social Biases in Wikipedia Bios
- arxiv url: http://arxiv.org/abs/2101.00078v1
- Date: Thu, 31 Dec 2020 21:27:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-17 17:09:57.527272
- Title: Controlled Analyses of Social Biases in Wikipedia Bios
- Title(参考訳): wikipedia biosにおける社会バイアスの制御分析
- Authors: Anjalie Field, Chan Young Park, Yulia Tsvetkov
- Abstract要約: ウィキペディアの伝記ページの分析において,共起変数の効果を低減する手法を提案する。
本研究では,比較コーパスと目的コーパスとの適合度を測定する指標の開発により,提案手法を評価する。
以上の結果から,共起変数に対する制御の失敗は,異なる結論とマスクバイアスをもたらす可能性が示唆された。
- 参考スコア(独自算出の注目度): 27.591896251854724
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Social biases on Wikipedia, a widely-read global platform, could greatly
influence public opinion. While prior research has examined man/woman gender
bias in biography articles, possible influences of confounding variables limit
conclusions. In this work, we present a methodology for reducing the effects of
confounding variables in analyses of Wikipedia biography pages. Given a target
corpus for analysis (e.g. biography pages about women), we present a method for
constructing a comparison corpus that matches the target corpus in as many
attributes as possible, except the target attribute (e.g. the gender of the
subject). We evaluate our methodology by developing metrics to measure how well
the comparison corpus aligns with the target corpus. We then examine how
articles about gender and racial minorities (cisgender women, non-binary
people, transgender women, and transgender men; African American, Asian
American, and Hispanic/Latinx American people) differ from other articles,
including analyses driven by social theories like intersectionality. In
addition to identifying suspect social biases, our results show that failing to
control for confounding variables can result in different conclusions and mask
biases. Our contributions include methodology that facilitates further analyses
of bias in Wikipedia articles, findings that can aid Wikipedia editors in
reducing biases, and framework and evaluation metrics to guide future work in
this area.
- Abstract(参考訳): 広く読まれているグローバルプラットフォームであるWikipediaの社会的偏見は、世論に大きな影響を与える可能性がある。
過去の研究では、伝記記事の男女差を調べたが、共起変数の影響は結論を制限している。
本研究では,ウィキペディアの伝記ページの分析において,共起変数の効果を低減する手法を提案する。
分析対象コーパス(例)が与えられる。
女性に関する伝記ページ)では,対象属性を除き,可能な限り多数の属性で対象コーパスにマッチする比較コーパスを構築する方法を提案する(例)。
対象者の性別)。
本研究では,比較コーパスと目的コーパスとの適合度を測定する指標の開発により,提案手法を評価する。
次に、性別や人種的マイノリティ(女性、非バイナリー人、トランスジェンダー女性、トランスジェンダー男性、アフリカ系アメリカ人、アジア系アメリカ人、ヒスパニック/ラテン系アメリカ人)に関する記事が、交叉性のような社会理論によって導かれる分析を含む他の記事とどのように異なるかを検討する。
疑わしい社会的偏見の同定に加えて, 共起変数の制御に失敗すると, 異なる結論が得られ, マスクバイアスが生じる可能性が示唆された。
コントリビューションには、ウィキペディアの記事におけるバイアスのさらなる分析を促進する方法論、バイアスを減らすためにウィキペディア編集者を支援する発見、この領域における今後の研究を導くためのフレームワークと評価指標が含まれている。
関連論文リスト
- Survival of the Notable: Gender Asymmetry in Wikipedia Collective Deliberations [0.0]
ウィキペディアにおける削除記事(AfD)の議論により、編集者は既存の記事の可読性を評価することができる。
編集長が女性削除の合意に達するまでに長い時間を要するにもかかわらず、女性の伝記は男性よりも早く削除にノミネートされていることが判明した。
歴史人物に関するAfDは、議論中の伝記を他の百科事典にリダイレクトまたはマージする傾向が強い。
論文 参考訳(メタデータ) (2024-11-07T00:37:24Z) - Locating Information Gaps and Narrative Inconsistencies Across Languages: A Case Study of LGBT People Portrayals on Wikipedia [49.80565462746646]
我々は,情報ギャップと矛盾を事実レベルで特定するための,効率的かつ信頼性の高い手法であるInfoGap法を紹介した。
我々は、LGBTの人々の描写を分析してInfoGapを評価し、英語、ロシア語、フランス語のウィキペディアの2.7Kの伝記ページを解析した。
論文 参考訳(メタデータ) (2024-10-05T20:40:49Z) - The Impact of Debiasing on the Performance of Language Models in
Downstream Tasks is Underestimated [70.23064111640132]
我々は、幅広いベンチマークデータセットを用いて、複数の下流タスクのパフォーマンスに対するデバイアスの影響を比較した。
実験により、デバイアスの効果は全てのタスクにおいて一貫して見積もられていることが示されている。
論文 参考訳(メタデータ) (2023-09-16T20:25:34Z) - Gender Biases in Automatic Evaluation Metrics for Image Captioning [87.15170977240643]
画像キャプションタスクのためのモデルに基づく評価指標において、性別バイアスの体系的研究を行う。
偏りのある世代と偏りのない世代を区別できないことを含む、これらの偏りのあるメトリクスを使用することによる負の結果を実証する。
人間の判断と相関を損なうことなく、測定バイアスを緩和する簡便で効果的な方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T04:27:40Z) - Choose Your Lenses: Flaws in Gender Bias Evaluation [29.16221451643288]
ジェンダーバイアス評価の現在のパラダイムを評価し、その中のいくつかの欠陥を同定する。
まず、あるタスクにおけるモデルのパフォーマンスがジェンダーによってどのように影響を受けるかを測定する、外在バイアス指標の重要性を強調する。
第二に、データセットとメトリクスが頻繁に結合されていることを発見し、それらの結合がいかにして信頼できる結論を得る能力を妨げているかについて議論する。
論文 参考訳(メタデータ) (2022-10-20T17:59:55Z) - Social Biases in Automatic Evaluation Metrics for NLG [53.76118154594404]
本稿では,単語埋め込みアソシエーションテスト(WEAT)と文埋め込みアソシエーションテスト(SEAT)に基づく評価手法を提案する。
我々は、画像キャプションやテキスト要約タスクにおける性別バイアスの影響を調査するために、性別対応メタ評価データセットを構築した。
論文 参考訳(メタデータ) (2022-10-17T08:55:26Z) - Theories of "Gender" in NLP Bias Research [0.0]
NLPにおけるジェンダーバイアスに関する200近い記事を調査した。
記事の大多数は、性別に関する理論を明示していない。
多くの人は、トランス、ノンバイナリ、インターセックスの人々の存在と経験を無視した方法で、性の特徴、社会的性別、言語性について説明している。
論文 参考訳(メタデータ) (2022-05-05T09:20:53Z) - Gender bias in magazines oriented to men and women: a computational
approach [58.720142291102135]
女性指向の雑誌の内容と男性指向の雑誌の内容を比較する。
トピック・モデリングの手法により、雑誌で議論されている主要なテーマを特定し、これらのトピックの存在が時間とともに雑誌間でどの程度異なるかを定量化する。
以上の結果から,セクシュアオブジェクトとしての家族,ビジネス,女性の出現頻度は,時間とともに消失する傾向にあることが示唆された。
論文 参考訳(メタデータ) (2020-11-24T14:02:49Z) - Multilingual Contextual Affective Analysis of LGBT People Portrayals in
Wikipedia [34.183132688084534]
物語文における特定の語彙選択は、物語の中の人々に対する作家の態度を反映し、聴衆の反応に影響を与える。
言語や文化によって単語の意味がどう異なるかを示し、既存の英語データセットを一般化することの難しさを浮き彫りにしている。
次に、LGBTコミュニティのメンバーのウィキペディアの伝記ページを3つの言語で分析することで、本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-10-21T08:27:36Z) - Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by
Ranking Algorithms [68.85295025020942]
本稿では,性別ステレオタイプをサポートする検索エンジンの傾向を定量化するジェンダーステレオタイプ強化(GSR)尺度を提案する。
GSRは、表現上の害を定量化できる情報検索のための、最初の特別に調整された尺度である。
論文 参考訳(メタデータ) (2020-09-02T20:45:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。