論文の概要: Evidence of What, for Whom? The Socially Contested Role of Algorithmic Bias in a Predictive Policing Tool
- arxiv url: http://arxiv.org/abs/2405.07715v1
- Date: Mon, 13 May 2024 13:03:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-14 13:45:23.808909
- Title: Evidence of What, for Whom? The Socially Contested Role of Algorithmic Bias in a Predictive Policing Tool
- Title(参考訳): 予測分析ツールにおけるアルゴリズムバイアスの役割
- Authors: Marta Ziosi, Dasha Pruss,
- Abstract要約: 異なるグループの利害関係者が,ツールのアルゴリズムバイアスの多様な問題診断を明確化することを示す。
利害関係者は、警察パトロールアロケーションに関する政策を改定するためにアルゴリズムバイアスの証拠を利用する。
アルゴリズムバイアスの様々な利用の暗黙の仮定と範囲を証拠とみなす。
- 参考スコア(独自算出の注目度): 0.9821874476902969
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a critical, qualitative study of the social role of algorithmic bias in the context of the Chicago crime prediction algorithm, a predictive policing tool that forecasts when and where in the city crime is most likely to occur. Through interviews with 18 Chicago-area community organizations, academic researchers, and public sector actors, we show that stakeholders from different groups articulate diverse problem diagnoses of the tool's algorithmic bias, strategically using it as evidence to advance criminal justice interventions that align with stakeholders' positionality and political ends. Drawing inspiration from Catherine D'Ignazio's taxonomy of "refusing and using" data, we find that stakeholders use evidence of algorithmic bias to reform the policies around police patrol allocation; reject algorithm-based policing interventions; reframe crime as a structural rather than interpersonal problem; reveal data on authority figures in an effort to subvert their power; repair and heal families and communities; and, in the case of more powerful actors, to reaffirm their own authority or existing power structures. We identify the implicit assumptions and scope of these varied uses of algorithmic bias as evidence, showing that they require different (and sometimes conflicting) values about policing and AI. This divergence reflects long-standing tensions in the criminal justice reform landscape between the values of liberation and healing often centered by system-impacted communities and the values of surveillance and deterrence often instantiated in data-driven reform measures. We advocate for centering the interests and experiential knowledge of communities impacted by incarceration to ensure that evidence of algorithmic bias can serve as a device to challenge the status quo.
- Abstract(参考訳): 本稿では,シカゴ犯罪予測アルゴリズムの文脈におけるアルゴリズムバイアスの社会的役割に関する批判的,質的な研究について述べる。
シカゴの18の地域社会団体、学術研究者、公共セクターアクターとのインタビューを通じて、異なるグループの利害関係者が、ツールのアルゴリズムバイアスの多様な問題診断を明確化し、利害関係者の立場や政治的目的に沿った刑事司法介入を促進する証拠として戦略的に用いていることを示す。
キャサリン・ディグナツィオの「データの再利用と利用」の分類学からインスピレーションを得て、ステークホルダーは、警察パトロールアロケーションに関する政策の改革にアルゴリズム的偏見の証拠を使用すること、アルゴリズムに基づく警察介入を拒否すること、犯罪を個人間問題ではなく構造的なものとして再編成すること、権力を覆すために権威のある人物のデータを明らかにすること、家族やコミュニティを修復し修復すること、そしてより強力なアクターの場合には、自身の権威または既存の権力構造を再確認すること、を見出した。
アルゴリズムバイアスの様々な使用の暗黙の仮定とスコープを証拠として特定し、警察とAIに関して異なる(時には矛盾する)価値を必要とすることを示す。
このばらつきは、しばしばシステムに影響を及ぼすコミュニティを中心とした解放と癒しの価値と、データ主導の改革措置でしばしばインスタンス化される監視と抑止の価値観の間の刑事司法改革の状況における長年の緊張を反映している。
我々は,アルゴリズム的偏見の証拠が現状に挑戦する手段として有効であることを確実にするために,投獄によって影響を受けるコミュニティの利益と経験的知識を集中させることを提唱する。
関連論文リスト
- Fairness in Algorithmic Recourse Through the Lens of Substantive
Equality of Opportunity [15.78130132380848]
アルゴリズムによる会話は、AIシステムとのインタラクションにおいて人に対してエージェンシーを与える手段として注目を集めている。
近年の研究では、個人の初期状況の違いにより、会話自体が不公平である可能性があることが示されている。
個人が行動するのに時間がかかるほど、設定が変更される可能性があるからだ。
論文 参考訳(メタデータ) (2024-01-29T11:55:45Z) - The Impact of Differential Feature Under-reporting on Algorithmic Fairness [86.275300739926]
解析的に抽出可能な差分特徴のアンダーレポーティングモデルを提案する。
そして、この種のデータバイアスがアルゴリズムの公正性に与える影響を特徴づける。
我々の結果は、実世界のデータ設定では、アンダーレポートが典型的に格差を増大させることを示している。
論文 参考訳(メタデータ) (2024-01-16T19:16:22Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Demographic-Reliant Algorithmic Fairness: Characterizing the Risks of
Demographic Data Collection in the Pursuit of Fairness [0.0]
我々は、アルゴリズムの公正性を実現するために、人口統計に関するより多くのデータを集めることを検討する。
これらの技術は、データガバナンスとシステム抑圧に関するより広範な疑問を、いかに無視するかを示す。
論文 参考訳(メタデータ) (2022-04-18T04:50:09Z) - A relationship and not a thing: A relational approach to algorithmic
accountability and assessment documentation [3.4438724671481755]
当社は、開発者はシステムがどのように動作するかに関する情報をほとんど独占していると論じています。
我々は、ロバストな説明責任体制は、大衆が共有された経験と関心を結び付ける機会を確立する必要があると論じている。
論文 参考訳(メタデータ) (2022-03-02T23:22:03Z) - Algorithmic Fairness Datasets: the Story so Far [68.45921483094705]
データ駆動アルゴリズムは、人々の幸福に直接影響し、批判的な決定をサポートするために、さまざまな領域で研究されている。
研究者のコミュニティは、既存のアルゴリズムの株式を調査し、新しいアルゴリズムを提案し、歴史的に不利な人口に対する自動意思決定のリスクと機会の理解を深めてきた。
公正な機械学習の進歩はデータに基づいており、適切に文書化された場合にのみ適切に使用できる。
残念なことに、アルゴリズムフェアネスコミュニティは、特定のリソース(オパシティ)に関する情報の不足と利用可能な情報の分散(スパーシティ)によって引き起こされる、集合的なデータドキュメント負債に悩まされている。
論文 参考訳(メタデータ) (2022-02-03T17:25:46Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - Analyzing a Carceral Algorithm used by the Pennsylvania Department of
Corrections [0.0]
本論文は、投獄中の囚人の収容レベルを分類するために使用されるペンシルベニア付加分類ツール(PACT)に焦点を当てる。
この場合のアルゴリズムは、追加の懲戒行為に耐え、必要なプログラミングを完了し、特に仮釈放アルゴリズムに入力される変数に蒸留される経験を得る可能性を決定する。
論文 参考訳(メタデータ) (2021-12-06T18:47:31Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - The effect of differential victim crime reporting on predictive policing
systems [84.86615754515252]
本研究では, 被害者の犯罪報告率の違いが, 共通犯罪ホットスポット予測モデルにおいて, 結果の相違をもたらすことを示す。
以上の結果から, 犯罪報告率の差は, 高犯罪から低犯罪へ, 高犯罪・中犯罪・高報道へ, 予測ホットスポットの移動につながる可能性が示唆された。
論文 参考訳(メタデータ) (2021-01-30T01:57:22Z) - Pursuing Open-Source Development of Predictive Algorithms: The Case of
Criminal Sentencing Algorithms [0.0]
オープンソースアルゴリズムの開発は、高度に連続した文脈における標準であるべきだと我々は主張する。
これらの問題は、ほぼ全ての広く使われている刑事判決アルゴリズムの、プロプライエタリで高価な性質によって悪化していることを示唆する。
論文 参考訳(メタデータ) (2020-11-12T14:53:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。