論文の概要: Finding the white male: The prevalence and consequences of algorithmic gender and race bias in political Google searches
- arxiv url: http://arxiv.org/abs/2405.00335v1
- Date: Wed, 1 May 2024 05:57:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-02 16:27:08.180499
- Title: Finding the white male: The prevalence and consequences of algorithmic gender and race bias in political Google searches
- Title(参考訳): 白人男性を見つける:Googleの政治検索におけるアルゴリズム的性別と人種偏見の頻度と結果
- Authors: Tobias Rohrbach, Mykola Makhortykh, Maryna Sydorova,
- Abstract要約: 本稿では,4つの研究のシリーズにおいて,少数化群のアルゴリズム表現の枠組みを提案し,検証する。
第一に、2つのアルゴリズムによる政治画像検索の監査は、検索エンジンが女性や非白人の政治家を軽視して、構造的不平等を反映し、維持していることを示す。
第二に、2つのオンライン実験は、これらのバイアスが、アルゴリズム表現の偏見によって、政治的現実の認識を歪め、白人で男性化された政治観を積極的に補強することを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Search engines like Google have become major information gatekeepers that use artificial intelligence (AI) to determine who and what voters find when searching for political information. This article proposes and tests a framework of algorithmic representation of minoritized groups in a series of four studies. First, two algorithm audits of political image searches delineate how search engines reflect and uphold structural inequalities by under- and misrepresenting women and non-white politicians. Second, two online experiments show that these biases in algorithmic representation in turn distort perceptions of the political reality and actively reinforce a white and masculinized view of politics. Together, the results have substantive implications for the scientific understanding of how AI technology amplifies biases in political perceptions and decision-making. The article contributes to ongoing public debates and cross-disciplinary research on algorithmic fairness and injustice.
- Abstract(参考訳): Googleのような検索エンジンは、人工知能(AI)を使って、政治情報を探すときに誰が何を見つけるかを決定する主要な情報ゲートキーパーになっている。
本稿では,4つの研究のシリーズにおいて,少数化群のアルゴリズム表現の枠組みを提案し,検証する。
第一に、2つのアルゴリズムによる政治画像検索の監査は、検索エンジンが女性や非白人の政治家を軽視して、構造的不平等を反映し、維持していることを示す。
第二に、2つのオンライン実験は、これらのバイアスが、アルゴリズム表現の偏見によって、政治的現実の認識を歪め、白人で男性化された政治観を積極的に補強することを示している。
この結果は、AI技術が政治的認識や意思決定のバイアスをどう増幅するかという科学的理解に実質的な意味を持つ。
この記事は、現在進行中の公開討論や、アルゴリズムの公正性と不正に関する学際的研究に貢献する。
関連論文リスト
- Biased AI can Influence Political Decision-Making [64.9461133083473]
本稿では、AI言語モデルにおけるパルチザンバイアスが政治的意思決定に及ぼす影響について検討する。
政治的に偏見のあるモデルに晒された参加者は、意見を採用し、AIの偏見と一致した決定を下す可能性が著しく高いことがわかった。
論文 参考訳(メタデータ) (2024-10-08T22:56:00Z) - Representation Bias in Political Sample Simulations with Large Language Models [54.48283690603358]
本研究は,大規模言語モデルを用いた政治サンプルのシミュレーションにおけるバイアスの同定と定量化を目的とする。
GPT-3.5-Turboモデルを用いて、米国選挙研究、ドイツ縦割り選挙研究、ズオビアオデータセット、中国家族パネル研究のデータを活用する。
論文 参考訳(メタデータ) (2024-07-16T05:52:26Z) - (Unfair) Norms in Fairness Research: A Meta-Analysis [6.395584220342517]
我々は,AIフェアネスと倫理に関する2つの主要なカンファレンスから,アルゴリズムフェアネス論文のメタ分析を行う。
まず、米国中心の視点が公正調査全体において支配的な傾向を示す。
第二に、公正性の研究は、人間のアイデンティティの二項結合に広く依存している。
論文 参考訳(メタデータ) (2024-06-17T17:14:47Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Rethinking Fairness: An Interdisciplinary Survey of Critiques of
Hegemonic ML Fairness Approaches [0.0]
本稿では、機械学習(ML)における現在の公平性向上技術介入の批判を評価し、比較する。
哲学、フェミニスト研究、批判的な人種と民族研究、法学、人類学、科学と技術研究など、様々な非計算分野から派生している。
この記事は、社会における強大な力のダイナミクスと構造的不正を積極的に破壊する未来のMLフェアネス研究の方向性を想像することで締めくくっている。
論文 参考訳(メタデータ) (2022-05-06T14:27:57Z) - Fine-Grained Prediction of Political Leaning on Social Media with
Unsupervised Deep Learning [0.9137554315375922]
ソーシャルメディア投稿からきめ細かい政治傾向を学習するための新しい教師なし手法を提案する。
本研究は、よりきめ細かな政治的傾きを検出するための、新しい、より優れた教師なしのアプローチを開発するための道を開くものである。
論文 参考訳(メタデータ) (2022-02-23T09:18:13Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - Algorithmic Amplification of Politics on Twitter [17.631887805091733]
Twitterプラットフォーム上で大規模なランダム化実験を行った結果,定量的な証拠が得られた。
7カ国の政党から選出された議員によるつぶやきについて検討した。
7ヶ国中6ヶ国で、主流の政治的権利は、主流の政治的左翼よりも高いアルゴリズム的増幅を享受している。
論文 参考訳(メタデータ) (2021-10-21T09:25:39Z) - Beyond Algorithmic Bias: A Socio-Computational Interrogation of the
Google Search by Image Algorithm [0.799536002595393]
アルゴリズムを、すべての年齢と4種以上の人種の40万以上の顔で提示することで、監査する。
このアルゴリズムは、しばしば、女性および非白人個人を単純化し、ステレオタイピングし、識別する、白人男性の家長構造を再現する。
論文 参考訳(メタデータ) (2021-05-26T21:40:43Z) - The Matter of Chance: Auditing Web Search Results Related to the 2020
U.S. Presidential Primary Elections Across Six Search Engines [68.8204255655161]
私たちは、Google、Baidu、Bing、DuckDuckGo、Yahoo、Yandexの"US Election"、"Donald trump"、"Joe Biden"、"bernie Sanders"の検索結果を調べます。
その結果, 検索エンジン間の検索結果と, エージェント間の検索結果の相違が有意な差があることが示唆された。
論文 参考訳(メタデータ) (2021-05-03T11:18:19Z) - Towards causal benchmarking of bias in face analysis algorithms [54.19499274513654]
顔分析アルゴリズムのアルゴリズムバイアスを測定する実験手法を開発した。
提案手法は,一致したサンプル画像の合成トランスクター'を生成することに基づく。
性別分類アルゴリズムの偏見を従来の観察法を用いて分析することにより,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-07-13T17:10:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。