論文の概要: Algorithmic Fairness and Color-blind Racism: Navigating the Intersection
- arxiv url: http://arxiv.org/abs/2402.07778v1
- Date: Mon, 12 Feb 2024 16:43:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-13 13:45:49.148980
- Title: Algorithmic Fairness and Color-blind Racism: Navigating the Intersection
- Title(参考訳): アルゴリズムフェアネスとカラーブラインド・ラシズム--交差点を案内する
- Authors: Jamelle Watson-Daniels
- Abstract要約: アルゴリズム的公正に関する多くの研究の流れがこの交差点で関心から生まれた。
人種的偏見の事例に動機づけられたものの、アルゴリズム的公正性の研究はほとんど人種差別に関する学問から切り離されている。
- 参考スコア(独自算出の注目度): 1.6317061277457001
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Our focus lies at the intersection between two broader research perspectives:
(1) the scientific study of algorithms and (2) the scholarship on race and
racism. Many streams of research related to algorithmic fairness have been born
out of interest at this intersection. We think about this intersection as the
product of work derived from both sides. From (1) algorithms to (2) racism, the
starting place might be an algorithmic question or method connected to a
conceptualization of racism. On the other hand, from (2) racism to (1)
algorithms, the starting place could be recognizing a setting where a legacy of
racism is known to persist and drawing connections between that legacy and the
introduction of algorithms into this setting. In either direction, meaningful
disconnection can occur when conducting research at the intersection of racism
and algorithms. The present paper urges collective reflection on research
directions at this intersection. Despite being primarily motivated by instances
of racial bias, research in algorithmic fairness remains mostly disconnected
from scholarship on racism. In particular, there has not been an examination
connecting algorithmic fairness discussions directly to the ideology of
color-blind racism; we aim to fill this gap. We begin with a review of an
essential account of color-blind racism then we review racial discourse within
algorithmic fairness research and underline significant patterns, shifts and
disconnects. Ultimately, we argue that researchers can improve the navigation
of the landscape at the intersection by recognizing ideological shifts as such
and iteratively re-orienting towards maintaining meaningful connections across
interdisciplinary lines.
- Abstract(参考訳): 我々の焦点は、(1)アルゴリズムの科学的研究、(2)人種と人種差別に関する学問の2つの研究視点の交差にある。
アルゴリズム的公正に関する多くの研究の流れがこの交差点で関心から生まれた。
私たちはこの交差点を、両側から派生した仕事の産物と考える。
1)アルゴリズムから(2)人種差別まで、開始地は人種差別の概念化に結びつくアルゴリズム的な問題や方法かもしれない。
一方,(2)の人種差別から(1)のアルゴリズムに至るまで,人種差別の遺産が存続していることや,その遺産とアルゴリズムの導入とのつながりをこの設定に描き出すような設定を,出発点として認識することができる。
どちらの方向でも、人種差別とアルゴリズムの交差点で研究を行う際に有意義な解離が起こる。
本稿では,この交差点における研究方向の集合的反映を促す。
主に人種バイアスの事例に動機づけられているにもかかわらず、アルゴリズム的公平性の研究は、人種差別に関する奨学金からほとんど切り離されている。
特に、色盲人種差別のイデオロギーに直接アルゴリズム的公平性議論を結びつける検討は行われておらず、このギャップを埋めようとしている。
まず、色盲人種差別に関する本質的な説明をレビューし、アルゴリズム的公平性研究における人種的言説をレビューし、重要なパターン、シフト、切り離しを強調する。
究極的には、研究者は、イデオロギー的な変化を認識し、学際線間の有意義な接続を維持するために反復的に方向転換することで、交差点での景観のナビゲーションを改善することができると主張する。
関連論文リスト
- Auditing for Racial Discrimination in the Delivery of Education Ads [50.37313459134418]
本稿では,教育機会のための広告配信において,人種的偏見を評価できる新たな第三者監査手法を提案する。
メタのアルゴリズムによる教育機会の広告配信における人種差別の証拠を見つけ、法的および倫理的懸念を訴える。
論文 参考訳(メタデータ) (2024-06-02T02:00:55Z) - Finding the white male: The prevalence and consequences of algorithmic gender and race bias in political Google searches [0.0]
本稿では,4つの研究のシリーズにおいて,少数化群のアルゴリズム表現の枠組みを提案し,検証する。
第一に、2つのアルゴリズムによる政治画像検索の監査は、検索エンジンが女性や非白人の政治家を軽視して、構造的不平等を反映し、維持していることを示す。
第二に、2つのオンライン実験は、これらのバイアスが、アルゴリズム表現の偏見によって、政治的現実の認識を歪め、白人で男性化された政治観を積極的に補強することを示している。
論文 参考訳(メタデータ) (2024-05-01T05:57:03Z) - Getting aligned on representational alignment [89.81370730647467]
本研究では,認知科学,神経科学,機械学習における表現的アライメントの研究を行う。
表現的アライメントに関心のある研究コミュニティ間での知識伝達は限られている。
本稿では,表現的アライメントを研究する研究者の間で共通言語として機能する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-18T17:47:58Z) - The Perspective of Software Professionals on Algorithmic Racism [5.86857986102133]
アルゴリズム的人種差別(英: Algorithmic racism)とは、その民族性に基づいてユーザーを拘束する技術的ソリューションの振る舞いを表す用語である。
本研究は,ソフトウェア専門家の視点から,アルゴリズム的人種差別を探求することを目的とする。
論文 参考訳(メタデータ) (2023-06-27T01:15:25Z) - Racial Bias within Face Recognition: A Survey [15.924281804465252]
人種的偏見の問題は、人種定義、グループ化戦略、人種または人種関連グループ化の社会的意味から始まる。
一般的な顔認識処理パイプラインは,画像取得,顔の局所化,顔表現,顔認証,識別の4段階に分けられる。
全体的な目的は、顔認識処理パイプラインの各ステージおよび各ステージに関して、人種的バイアス問題に関する包括的なカバレッジを提供することである。
論文 参考訳(メタデータ) (2023-05-01T13:33:12Z) - Graph-based Topology Reasoning for Driving Scenes [102.35885039110057]
TopoNetは、従来の知覚タスクを超えてトラフィック知識を抽象化できる最初のエンドツーエンドフレームワークである。
TopoNetを,難解なシーン理解ベンチマークOpenLane-V2で評価した。
論文 参考訳(メタデータ) (2023-04-11T15:23:29Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Beyond Algorithmic Bias: A Socio-Computational Interrogation of the
Google Search by Image Algorithm [0.799536002595393]
アルゴリズムを、すべての年齢と4種以上の人種の40万以上の顔で提示することで、監査する。
このアルゴリズムは、しばしば、女性および非白人個人を単純化し、ステレオタイピングし、識別する、白人男性の家長構造を再現する。
論文 参考訳(メタデータ) (2021-05-26T21:40:43Z) - Avoiding bias when inferring race using name-based approaches [0.8543368663496084]
我々は、米国国勢調査および住宅ローン申請の情報を用いて、米国関連作家のウェブ・オブ・サイエンスにおける人種を推測する。
その結果、人種・民族によって名前に基づく推論の妥当性が異なり、しきい値が黒人作家を過小評価し、白人作家を過小評価することを示した。
論文 参考訳(メタデータ) (2021-04-14T08:36:22Z) - Selection-Expansion: A Unifying Framework for Motion-Planning and
Diversity Search Algorithms [69.87173070473717]
本稿では,2つの多様性探索アルゴリズム,ノベルティ探索アルゴリズムとゴール探索処理アルゴリズムの特性について検討する。
mpアルゴリズムとの関係は、ポリシーパラメータ空間と結果空間の間のマッピングの滑らかさ、あるいは滑らかさの欠如が検索効率において重要な役割を担っていることを示している。
論文 参考訳(メタデータ) (2021-04-10T13:52:27Z) - Towards causal benchmarking of bias in face analysis algorithms [54.19499274513654]
顔分析アルゴリズムのアルゴリズムバイアスを測定する実験手法を開発した。
提案手法は,一致したサンプル画像の合成トランスクター'を生成することに基づく。
性別分類アルゴリズムの偏見を従来の観察法を用いて分析することにより,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-07-13T17:10:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。