論文の概要: Fuck the Algorithm: Conceptual Issues in Algorithmic Bias
- arxiv url: http://arxiv.org/abs/2505.13509v1
- Date: Fri, 16 May 2025 19:17:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:52.350767
- Title: Fuck the Algorithm: Conceptual Issues in Algorithmic Bias
- Title(参考訳): Fuck the Algorithm: アルゴリズムバイアスの概念的問題
- Authors: Catherine Stinson,
- Abstract要約: アルゴリズムバイアスは近年の論争の対象となっている。
この主張を明確にするためには、「アルゴリズムそのもの」がどんなものなのかを知る必要がある。
データバイアスは、雇用、警察、医療といった領域で特定されている。
- 参考スコア(独自算出の注目度): 0.05657375260432172
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Algorithmic bias has been the subject of much recent controversy. To clarify what is at stake and to make progress resolving the controversy, a better understanding of the concepts involved would be helpful. The discussion here focuses on the disputed claim that algorithms themselves cannot be biased. To clarify this claim we need to know what kind of thing 'algorithms themselves' are, and to disambiguate the several meanings of 'bias' at play. This further involves showing how bias of moral import can result from statistical biases, and drawing connections to previous conceptual work about political artifacts and oppressive things. Data bias has been identified in domains like hiring, policing and medicine. Examples where algorithms themselves have been pinpointed as the locus of bias include recommender systems that influence media consumption, academic search engines that influence citation patterns, and the 2020 UK algorithmically-moderated A-level grades. Recognition that algorithms are a kind of thing that can be biased is key to making decisions about responsibility for harm, and preventing algorithmically mediated discrimination.
- Abstract(参考訳): アルゴリズムバイアスは近年の論争の対象となっている。
懸念されていることを明確にし、議論を解決するために前進するためには、関連する概念をよりよく理解することが役立つだろう。
ここでの議論は、アルゴリズム自体に偏見がないという議論の的となっている。
この主張を明確にするためには、「アルゴリズムそのもの」がどんなものなのかを理解し、遊びにおける「バイアス」のいくつかの意味を曖昧にする必要がある。
さらに、道徳的輸入の偏見が統計的バイアスによってどのように引き起こされるかを示し、政治的アーティファクトや抑圧的な物事に関する以前の概念的な研究とのつながりを描いている。
データバイアスは、雇用、警察、医療といった領域で特定されている。
アルゴリズム自体がバイアスの軌跡として指摘されている例としては、メディア消費に影響を与えるレコメンデーションシステム、引用パターンに影響を与える学術検索エンジン、2020年のアルゴリズムによって修正されたAレベルグレードなどがある。
アルゴリズムが偏見のあるものであるという認識は、有害な責任について決定を下し、アルゴリズムが媒介する差別を防ぐ鍵となる。
関連論文リスト
- Algorithmic neutrality [0.0]
私はアルゴリズム中立性について調査し、3つの疑問に対処する: アルゴリズム中立性とは何か?
そして、それを念頭に置いておくと、アルゴリズムバイアスについて何を学ぶことができるのか?
論文 参考訳(メタデータ) (2023-03-09T08:23:56Z) - Whole Page Unbiased Learning to Rank [59.52040055543542]
アンバイアスド・ラーニング・トゥ・ランク(ULTR)アルゴリズムは、バイアスド・クリックデータを用いたアンバイアスド・ランキングモデルを学ぶために提案される。
本稿では,BALというアルゴリズムをランク付けするバイアス非依存学習を提案する。
実世界のデータセットによる実験結果から,BALの有効性が検証された。
論文 参考訳(メタデータ) (2022-10-19T16:53:08Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - The SAME score: Improved cosine based bias score for word embeddings [49.75878234192369]
埋め込みにおけるセマンティックバイアスのための新しいバイアススコアであるPetを紹介した。
本研究は,下水道作業における意味バイアスを測定し,社会的バイアスの潜在的な原因を特定することができることを示す。
論文 参考訳(メタデータ) (2022-03-28T09:28:13Z) - Choosing an algorithmic fairness metric for an online marketplace:
Detecting and quantifying algorithmic bias on LinkedIn [0.21756081703275995]
等資格候補に対する等機会の公平性の概念から、アルゴリズム的公正度計量を導出する。
提案手法は、LinkedInが使用している2つのアルゴリズムの性別に関するアルゴリズムバイアスを計測し、定量化する。
論文 参考訳(メタデータ) (2022-02-15T10:33:30Z) - Towards Measuring Bias in Image Classification [61.802949761385]
畳み込みニューラルネットワーク(CNN)は、主要なコンピュータビジョンタスクの最先端技術となっている。
しかし、複雑な構造のため、その決定は産業世界の何らかの文脈での使用を制限するかを理解することは困難である。
帰属マップによるデータのバイアスを明らかにするための体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-07-01T10:50:39Z) - Algorithms are not neutral: Bias in collaborative filtering [0.0]
アルゴリズムバイアスの議論は、データまたはアルゴリズムを構築している人々が偏っている例に焦点を当てる傾向がある。
これは、人気に悩まされ、バイアスを均質化することで知られる協調フィルタリングの例で示される。
人気と均質化バイアスは、すでに限界を更に限界化させる効果があります。
論文 参考訳(メタデータ) (2021-05-03T17:28:43Z) - Towards causal benchmarking of bias in face analysis algorithms [54.19499274513654]
顔分析アルゴリズムのアルゴリズムバイアスを測定する実験手法を開発した。
提案手法は,一致したサンプル画像の合成トランスクター'を生成することに基づく。
性別分類アルゴリズムの偏見を従来の観察法を用いて分析することにより,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-07-13T17:10:34Z) - Underestimation Bias and Underfitting in Machine Learning [2.639737913330821]
機械学習におけるアルゴリズムバイアスと呼ばれるものは、トレーニングデータの歴史的なバイアスによるものである。
時には、アルゴリズム自体によってバイアスがもたらされる(あるいは少なくとも悪化する)ことがある。
本稿では,分類アルゴリズムのバイアスに寄与する要因を理解するための初期研究について報告する。
論文 参考訳(メタデータ) (2020-05-18T20:01:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。