論文の概要: Uncovering Gender Bias in Media Coverage of Politicians with Machine
Learning
- arxiv url: http://arxiv.org/abs/2005.07734v1
- Date: Fri, 15 May 2020 18:37:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 23:09:44.482875
- Title: Uncovering Gender Bias in Media Coverage of Politicians with Machine
Learning
- Title(参考訳): 機械学習による政治者のメディアカバレッジにおけるジェンダーバイアスの発見
- Authors: Susan Leavy
- Abstract要約: 本稿では, メディアにおける政治指導者の表現における組織的ジェンダーバイアスを明らかにするために, 人工知能を用いた研究について述べる。
15年間にわたるアイルランドの大臣の新聞報道が収集され、自然言語処理技術と機械学習で分析された。
発見は、女性政治家の描写におけるジェンダーバイアスの証拠、関係する政策の種類、そして彼らが政治指導者としてのパフォーマンスにおいてどのように評価されたかを示した。
- 参考スコア(独自算出の注目度): 3.0839245814393723
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents research uncovering systematic gender bias in the
representation of political leaders in the media, using artificial
intelligence. Newspaper coverage of Irish ministers over a fifteen year period
was gathered and analysed with natural language processing techniques and
machine learning. Findings demonstrate evidence of gender bias in the portrayal
of female politicians, the kind of policies they were associated with and how
they were evaluated in terms of their performance as political leaders. This
paper also sets out a methodology whereby media content may be analysed on a
large scale utilising techniques from artificial intelligence within a
theoretical framework founded in gender theory and feminist linguistics.
- Abstract(参考訳): 本稿では,人工知能を用いたメディアにおける政治指導者の体系的ジェンダーバイアスを明らかにする。
15年間にわたるアイルランドの大臣の新聞報道が収集され、自然言語処理技術と機械学習で分析された。
分析の結果,女性政治家の描写におけるジェンダーバイアスの証拠,関連する政策の種類,政治指導者としての業績の観点で評価された方法などが示された。
また,ジェンダー理論とフェミニスト言語学を基盤とした理論的枠組みの中で,メディアコンテンツが人工知能の技術を大規模に活用する手法も提案する。
関連論文リスト
- Political-LLM: Large Language Models in Political Science [159.95299889946637]
大規模言語モデル(LLM)は、政治科学のタスクで広く採用されている。
政治LLMは、LLMを計算政治科学に統合する包括的な理解を促進することを目的としている。
論文 参考訳(メタデータ) (2024-12-09T08:47:50Z) - High Risk of Political Bias in Black Box Emotion Inference Models [0.0]
本稿では、社会科学研究における感情分析(SA)に使用される機械学習モデルにおける政治的バイアスの存在について検討する。
ポーランドの感情分析モデルを用いた偏見調査を行った。
以上の結果から, 人間のラテンダーによるアノテーションは, モデルの予測に政治的偏見を伝播させることが示唆された。
論文 参考訳(メタデータ) (2024-07-18T20:31:07Z) - Finding the white male: The prevalence and consequences of algorithmic gender and race bias in political Google searches [0.0]
本稿では,4つの研究のシリーズにおいて,少数化群のアルゴリズム表現の枠組みを提案し,検証する。
第一に、2つのアルゴリズムによる政治画像検索の監査は、検索エンジンが女性や非白人の政治家を軽視して、構造的不平等を反映し、維持していることを示す。
第二に、2つのオンライン実験は、これらのバイアスが、アルゴリズム表現の偏見によって、政治的現実の認識を歪め、白人で男性化された政治観を積極的に補強することを示している。
論文 参考訳(メタデータ) (2024-05-01T05:57:03Z) - Unveiling Gender Bias in Terms of Profession Across LLMs: Analyzing and
Addressing Sociological Implications [0.0]
この研究は、AI言語モデルにおけるジェンダーバイアスに関する既存の研究を調査し、現在の知識のギャップを特定する。
この結果は,大規模言語モデルのアウトプットに存在する,ジェンダー付き単語関連,言語使用,偏見付き物語に光を当てた。
本稿では,アルゴリズムアプローチやデータ拡張手法など,LSMにおける性別バイアスを低減するための戦略を提案する。
論文 参考訳(メタデータ) (2023-07-18T11:38:45Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - GenderedNews: Une approche computationnelle des \'ecarts de
repr\'esentation des genres dans la presse fran\c{c}aise [0.0]
GenderedNews (urlhttps://gendered-news.imag.fr)は、フランスのオンラインメディアで毎週男女不均衡を計測するオンラインダッシュボードである。
メディアにおけるジェンダーの不平等の定量化には自然言語処理(NLP)手法を用いる。
毎日収集されるデータ(フランスのオンラインニュースメディアの7つの主要タイトル)と、メトリクスの背後にある方法論について説明する。
論文 参考訳(メタデータ) (2022-02-11T15:16:49Z) - Gender stereotypes in the mediated personalization of politics:
Empirical evidence from a lexical, syntactic and sentiment analysis [2.7071541526963805]
イタリアにおける政治的パーソナライゼーションは、男性よりも女性にとって有害であることを示す。
女性政治家は、個人的な詳細が報告されたとき、男性よりもネガティブなトーンで覆われている。
観察された性別の違いに対する主な貢献は、印刷されたニュースではなく、オンラインニュースである。
論文 参考訳(メタデータ) (2022-02-07T11:40:44Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z) - Quantifying Gender Bias Towards Politicians in Cross-Lingual Language
Models [104.41668491794974]
代名詞として政治家の名前を取り巻く言語モデルによって生成される形容詞と動詞の用法を定量化する。
死者や指定された言葉が男女の政治家と関連しているのに対し、美人や離婚といった特定の言葉が主に女性政治家に関係していることが判明した。
論文 参考訳(メタデータ) (2021-04-15T15:03:26Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。