論文の概要: Uncovering Gender Bias in Media Coverage of Politicians with Machine
Learning
- arxiv url: http://arxiv.org/abs/2005.07734v1
- Date: Fri, 15 May 2020 18:37:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 23:09:44.482875
- Title: Uncovering Gender Bias in Media Coverage of Politicians with Machine
Learning
- Title(参考訳): 機械学習による政治者のメディアカバレッジにおけるジェンダーバイアスの発見
- Authors: Susan Leavy
- Abstract要約: 本稿では, メディアにおける政治指導者の表現における組織的ジェンダーバイアスを明らかにするために, 人工知能を用いた研究について述べる。
15年間にわたるアイルランドの大臣の新聞報道が収集され、自然言語処理技術と機械学習で分析された。
発見は、女性政治家の描写におけるジェンダーバイアスの証拠、関係する政策の種類、そして彼らが政治指導者としてのパフォーマンスにおいてどのように評価されたかを示した。
- 参考スコア(独自算出の注目度): 3.0839245814393723
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents research uncovering systematic gender bias in the
representation of political leaders in the media, using artificial
intelligence. Newspaper coverage of Irish ministers over a fifteen year period
was gathered and analysed with natural language processing techniques and
machine learning. Findings demonstrate evidence of gender bias in the portrayal
of female politicians, the kind of policies they were associated with and how
they were evaluated in terms of their performance as political leaders. This
paper also sets out a methodology whereby media content may be analysed on a
large scale utilising techniques from artificial intelligence within a
theoretical framework founded in gender theory and feminist linguistics.
- Abstract(参考訳): 本稿では,人工知能を用いたメディアにおける政治指導者の体系的ジェンダーバイアスを明らかにする。
15年間にわたるアイルランドの大臣の新聞報道が収集され、自然言語処理技術と機械学習で分析された。
分析の結果,女性政治家の描写におけるジェンダーバイアスの証拠,関連する政策の種類,政治指導者としての業績の観点で評価された方法などが示された。
また,ジェンダー理論とフェミニスト言語学を基盤とした理論的枠組みの中で,メディアコンテンツが人工知能の技術を大規模に活用する手法も提案する。
関連論文リスト
- Unveiling Gender Bias in Terms of Profession Across LLMs: Analyzing and
Addressing Sociological Implications [0.0]
この研究は、AI言語モデルにおけるジェンダーバイアスに関する既存の研究を調査し、現在の知識のギャップを特定する。
この結果は,大規模言語モデルのアウトプットに存在する,ジェンダー付き単語関連,言語使用,偏見付き物語に光を当てた。
本稿では,アルゴリズムアプローチやデータ拡張手法など,LSMにおける性別バイアスを低減するための戦略を提案する。
論文 参考訳(メタデータ) (2023-07-18T11:38:45Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - The Face of Populism: Examining Differences in Facial Emotional
Expressions of Political Leaders Using Machine Learning [57.70351255180495]
深層学習に基づくコンピュータビジョンのアルゴリズムを、15カ国の政治指導者を描いた220本のYouTubeビデオのサンプルに適用する。
ポピュリスト・レトリックの度合いが異なるリーダー群間での否定的感情の平均スコアの統計的に有意な差を観察した。
論文 参考訳(メタデータ) (2023-04-19T18:32:49Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - GenderedNews: Une approche computationnelle des \'ecarts de
repr\'esentation des genres dans la presse fran\c{c}aise [0.0]
GenderedNews (urlhttps://gendered-news.imag.fr)は、フランスのオンラインメディアで毎週男女不均衡を計測するオンラインダッシュボードである。
メディアにおけるジェンダーの不平等の定量化には自然言語処理(NLP)手法を用いる。
毎日収集されるデータ(フランスのオンラインニュースメディアの7つの主要タイトル)と、メトリクスの背後にある方法論について説明する。
論文 参考訳(メタデータ) (2022-02-11T15:16:49Z) - Gender stereotypes in the mediated personalization of politics:
Empirical evidence from a lexical, syntactic and sentiment analysis [2.7071541526963805]
イタリアにおける政治的パーソナライゼーションは、男性よりも女性にとって有害であることを示す。
女性政治家は、個人的な詳細が報告されたとき、男性よりもネガティブなトーンで覆われている。
観察された性別の違いに対する主な貢献は、印刷されたニュースではなく、オンラインニュースである。
論文 参考訳(メタデータ) (2022-02-07T11:40:44Z) - Quantifying Gender Biases Towards Politicians on Reddit [19.396806939258806]
政治における男女平等を高める試みにもかかわらず、グローバルな努力は平等な女性代表の確保に苦慮している。
これは、権威のある女性に対する暗黙の性偏見と結びついている可能性が高い。
本稿では、オンライン政治討論に現れるジェンダーバイアスの包括的研究について述べる。
論文 参考訳(メタデータ) (2021-12-22T16:39:14Z) - A Machine Learning Pipeline to Examine Political Bias with Congressional
Speeches [0.3062386594262859]
私たちは、2つのイデオロギー的に多様なソーシャルメディアフォーラム、GabとTwitterで、政治的偏見を研究するための機械学習アプローチを提供します。
提案手法は,米国議会の政治演説から収集したテキストを用いて,そのデータをラベル付けする手法である。
また、カスケードとテキストの特徴を組み合わせて、カスケードの政治的偏見を約85%の精度で予測する機械学習アプローチを提案する。
論文 参考訳(メタデータ) (2021-09-18T21:15:21Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z) - Quantifying Gender Bias Towards Politicians in Cross-Lingual Language
Models [104.41668491794974]
代名詞として政治家の名前を取り巻く言語モデルによって生成される形容詞と動詞の用法を定量化する。
死者や指定された言葉が男女の政治家と関連しているのに対し、美人や離婚といった特定の言葉が主に女性政治家に関係していることが判明した。
論文 参考訳(メタデータ) (2021-04-15T15:03:26Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。