論文の概要: Quantifying Gender Biases Towards Politicians on Reddit
- arxiv url: http://arxiv.org/abs/2112.12014v3
- Date: Tue, 12 Aug 2025 11:24:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.063239
- Title: Quantifying Gender Biases Towards Politicians on Reddit
- Title(参考訳): Redditでジェンダーのバイアスを定量化
- Authors: Sara Marjanovic, Karolina Stańczak, Isabelle Augenstein,
- Abstract要約: 政治における男女平等を高める試みにもかかわらず、グローバルな努力は平等な女性代表の確保に苦慮している。
これは、権威のある女性に対する暗黙の性偏見と結びついている可能性が高い。
本稿では、オンライン政治討論に現れるジェンダーバイアスの包括的研究について述べる。
- 参考スコア(独自算出の注目度): 36.548136114372
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite attempts to increase gender parity in politics, global efforts have struggled to ensure equal female representation. This is likely tied to implicit gender biases against women in authority. In this work, we present a comprehensive study of gender biases that appear in online political discussion. To this end, we collect 10 million comments on Reddit in conversations about male and female politicians, which enables an exhaustive study of automatic gender bias detection. We address not only misogynistic language, but also other manifestations of bias, like benevolent sexism in the form of seemingly positive sentiment and dominance attributed to female politicians, or differences in descriptor attribution. Finally, we conduct a multi-faceted study of gender bias towards politicians investigating both linguistic and extra-linguistic cues. We assess 5 different types of gender bias, evaluating coverage, combinatorial, nominal, sentimental, and lexical biases extant in social media language and discourse. Overall, we find that, contrary to previous research, coverage and sentiment biases suggest equal public interest in female politicians. Rather than overt hostile or benevolent sexism, the results of the nominal and lexical analyses suggest this interest is not as professional or respectful as that expressed about male politicians. Female politicians are often named by their first names and are described in relation to their body, clothing, or family; this is a treatment that is not similarly extended to men. On the now banned far-right subreddits, this disparity is greatest, though differences in gender biases still appear in the right and left-leaning subreddits. We release the curated dataset to the public for future studies.
- Abstract(参考訳): 政治における男女平等を高める試みにもかかわらず、グローバルな努力は平等な女性代表の確保に苦慮している。
これは、権威のある女性に対する暗黙の性偏見と結びついている可能性が高い。
本稿では,オンライン政治討論に現れるジェンダーバイアスの包括的研究について述べる。
この目的のために、われわれは、男性政治家と女性政治家の会話の中で、Redditに1000万件のコメントを集め、自動性差検出の徹底的な研究を可能にした。
女性政治家による肯定的な感情や支配の形での慈悲的な性差別や、記述者の帰属の相違など、異義的な言語だけでなく、その他の偏見の顕在化にも対処する。
最後に、言語と外言語の両方を調査する政治家に対して、ジェンダーバイアスを多面的に検討する。
ソーシャルメディアの言語や言論に現われる5種類のジェンダーバイアスを評価し, 包括的, 組合せ的, 名目的, 感情的, 語彙的バイアスを評価した。
全体として、これまでの調査とは対照的に、カバレッジと感情バイアスは、女性の政治家に平等に公共の関心を抱くことを示唆している。
敵対的あるいは好意的な性差別を過度に排除するよりも、名目上および語彙的分析の結果は、この関心が男性政治家に表されるような専門的、あるいは敬意的なものではないことを示唆している。
女性政治家は、しばしばファーストネームで呼ばれ、その身体、衣服、家族に関連して記述される。
現在禁止されている極右サブレディットでは、この格差が最も大きいが、男女差は依然として右と左のサブレディットに現れている。
今後の研究のために、キュレートされたデータセットを一般公開します。
関連論文リスト
- Gender Bias and Property Taxes [50.18156030818883]
我々は、10万人以上の不動産税告訴審理記録と2.7年以上の関連音声記録を分析した。
女性のアパレルは、聴聞会で男性アパレルよりも体系的に劣る。
我々の結果は、性別バイアスは、少なくとも部分的には、ABBパネリストの一部に関する無声の信念と認識によって引き起こされるという考え方と一致している。
論文 参考訳(メタデータ) (2024-12-17T07:14:23Z) - Revealing and Reducing Gender Biases in Vision and Language Assistants (VLAs) [82.57490175399693]
画像・テキスト・ビジョン言語アシスタント(VLA)22種における性別バイアスの検討
以上の結果から,VLAは実世界の作業不均衡など,データ中の人間のバイアスを再現する可能性が示唆された。
これらのモデルにおける性別バイアスを排除するため、微調整に基づくデバイアス法は、下流タスクにおけるデバイアスとパフォーマンスの最良のトレードオフを実現する。
論文 参考訳(メタデータ) (2024-10-25T05:59:44Z) - Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - A Multilingual Perspective on Probing Gender Bias [0.0]
ジェンダーバイアスは、性別に基づいて個人を標的とする体系的なネガティブな治療の一形態である。
この論文は、ジェンダーバイアスが言語および言語技術を通してどのように表現されるかというニュアンスについて考察する。
論文 参考訳(メタデータ) (2024-03-15T21:35:21Z) - Uncovering Gender Bias within Journalist-Politician Interaction in
Indian Twitter [7.964711577522729]
私たちはTwitter上で100人のインド系ジャーナリストと100人のインド系政治家の性別バランスの取れたセットをキュレートしました。
我々は、これらの政治家に言及したジャーナリストが投稿した21,188のユニークなツイートを収集した。
ジャーナリストが男性政治家に言及する頻度と、女性政治家に言及する頻度に、大きな男女差があることが、我々の分析で明らかになった。
論文 参考訳(メタデータ) (2023-10-29T05:41:53Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - Gender stereotypes in the mediated personalization of politics:
Empirical evidence from a lexical, syntactic and sentiment analysis [2.7071541526963805]
イタリアにおける政治的パーソナライゼーションは、男性よりも女性にとって有害であることを示す。
女性政治家は、個人的な詳細が報告されたとき、男性よりもネガティブなトーンで覆われている。
観察された性別の違いに対する主な貢献は、印刷されたニュースではなく、オンラインニュースである。
論文 参考訳(メタデータ) (2022-02-07T11:40:44Z) - #ContextMatters: Advantages and Limitations of Using Machine Learning to
Support Women in Politics [0.15749416770494704]
ParityBOTはカナダ、アメリカ合衆国、ニュージーランドで選挙が行われた。
女性候補者に向けられた1200万件以上のツイートを分析して分類し、支持的なツイートで有害なツイートに対処するために使われた。
本研究では,ParityBOTが特定の女性に向けられた侮辱を取り上げなかった偽陰性率について検討した。
論文 参考訳(メタデータ) (2021-09-30T22:55:49Z) - Quantifying Gender Bias Towards Politicians in Cross-Lingual Language
Models [104.41668491794974]
代名詞として政治家の名前を取り巻く言語モデルによって生成される形容詞と動詞の用法を定量化する。
死者や指定された言葉が男女の政治家と関連しているのに対し、美人や離婚といった特定の言葉が主に女性政治家に関係していることが判明した。
論文 参考訳(メタデータ) (2021-04-15T15:03:26Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z) - Unsupervised Discovery of Implicit Gender Bias [38.59057512390926]
我々は、女性に対する性的偏見をコメントレベルで識別するために、教師なしのアプローチをとる。
主な課題は、データ内の他のアーティファクトではなく、暗黙のバイアスの兆候にモデルを集中させることです。
論文 参考訳(メタデータ) (2020-04-17T17:36:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。