論文の概要: Detecting Racial Bias in Jury Selection
- arxiv url: http://arxiv.org/abs/2103.11852v1
- Date: Mon, 22 Mar 2021 13:47:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-23 14:12:39.705975
- Title: Detecting Racial Bias in Jury Selection
- Title(参考訳): 陪審員選択における顔面バイアスの検出
- Authors: Jack Dunn and Ying Daisy Zhuo
- Abstract要約: APMリポートは歴史的裁判所の記録を照合し、州が潜在的な陪審員に人種的偏見を見せているかどうかを判断した。
この分析では、レースが重要な要因であるという結論を下向きのロジスティック回帰を用いた。
最適特徴選択(Optimal Feature Selection)を用いて、世界の特徴の最適サブセットを特定し、ストライク決定に人種的偏見があることを示す。
- 参考スコア(独自算出の注目度): 0.7106986689736826
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To support the 2019 U.S. Supreme Court case "Flowers v. Mississippi", APM
Reports collated historical court records to assess whether the State exhibited
a racial bias in striking potential jurors. This analysis used backward
stepwise logistic regression to conclude that race was a significant factor,
however this method for selecting relevant features is only a heuristic, and
additionally cannot consider interactions between features. We apply Optimal
Feature Selection to identify the globally-optimal subset of features and
affirm that there is significant evidence of racial bias in the strike
decisions. We also use Optimal Classification Trees to segment the juror
population subgroups with similar characteristics and probability of being
struck, and find that three of these subgroups exhibit significant racial
disparity in strike rate, pinpointing specific areas of bias in the dataset.
- Abstract(参考訳): 2019年の連邦最高裁判所事件「Flowers v. Mississippi」を支持するために、APM Reportsは歴史的裁判所の記録を照合し、州が潜在的な陪審員に人種的偏見を見せているかどうかを評価した。
この分析では、後方段階的なロジスティック回帰を用いて、競合が重要な要因であると結論づけるが、関連する特徴を選択するこの方法はヒューリスティックであり、特徴間の相互作用を考慮できない。
最適特徴選択(Optimal Feature Selection)を用いて、世界の特徴の最適サブセットを特定し、ストライキ決定に人種的偏見があることを示す。
また, 最適分類木を用いて, 同様の特徴と打たれ確率を持つ陪審員集団を区分し, これら3つの分類群がストライク率に有意な人種差を示し, データセット内の特定のバイアス領域を特定できることを見いだした。
関連論文リスト
- A Causal Framework to Evaluate Racial Bias in Law Enforcement Systems [13.277413612930102]
犯罪を取り入れた多段階因果関係の枠組みを提案する。
空港のセキュリティのような設定では、人種に対する監視バイアスの主な原因は、人種の無実に対する法執行機関のバイアスである可能性が高い。
警察と市民の相互作用において、人種に対する観察された偏見の主な原因は、人種に対する法執行機関の偏見や、他の人種に対する報告における一般大衆からの偏見である可能性がある。
論文 参考訳(メタデータ) (2024-02-22T20:41:43Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Estimating Racial Disparities When Race is Not Observed [3.0931877196387196]
本稿では,人種間の格差を推定する新しいモデルについて,人種の指標変数として姓を用いて紹介する。
ノースカロライナの投票者ファイルに基づく検証調査では、BISG+BIRDiEは政党登録における人種的違いを推定した場合、エラーを最大84%削減している。
提案手法を適用し,米国内国歳入庁の個人レベルの税率データを用いて住宅ローン利子控除の恩恵を受ける者の人種差を推定する。
論文 参考訳(メタデータ) (2023-03-05T04:46:16Z) - Race Bias Analysis of Bona Fide Errors in face anti-spoofing [0.0]
本稿では,3つの重要な特徴を持つ反スプーフに面した人種偏見の系統的研究について述べる。
焦点は、重大な倫理的および法的問題があるボナフェイドエラーの潜在的なバイアスを分析することにある。
本稿では,VQ-VAEに基づくフェース・アンチ・スプーフィング・アルゴリズムのバイアス解析プロセスについて述べる。
論文 参考訳(メタデータ) (2022-10-11T11:49:24Z) - Bounding Counterfactuals under Selection Bias [60.55840896782637]
本稿では,識別不能なクエリと識別不能なクエリの両方に対処するアルゴリズムを提案する。
選択バイアスによって引き起こされる欠如にもかかわらず、利用可能なデータの可能性は無限であることを示す。
論文 参考訳(メタデータ) (2022-07-26T10:33:10Z) - On Disentangled and Locally Fair Representations [95.6635227371479]
人種や性別などのセンシティブなグループに対して公平な方法で分類を行うという課題について検討する。
局所的公正表現を学習し、学習された表現の下で、各サンプルの近傍は感度特性の観点からバランスをとる。
論文 参考訳(メタデータ) (2022-05-05T14:26:50Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Mitigating Racial Biases in Toxic Language Detection with an
Equity-Based Ensemble Framework [9.84413545378636]
最近の研究では、アフリカ系アメリカ人の英語を書いているユーザーに対する人種的偏見が、人気のある有毒な言語データセットに存在することが示されている。
これらのバイアスの発生源をよりよく理解するために、さらに説明的公正度指標を提案する。
提案手法は,モデルがこれらのデータセットから学習する人種的バイアスを大幅に低減することを示す。
論文 参考訳(メタデータ) (2021-09-27T15:54:05Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - One Label, One Billion Faces: Usage and Consistency of Racial Categories
in Computer Vision [75.82110684355979]
顔画像の分類的人種ラベルを提供するコンピュータビジョンデータセットによって符号化された人種システムについて検討する。
各データセットは、名目上等価な人種分類にもかかわらず、かなりユニークな人種体系をコードしている。
我々は、人種的カテゴリーがステレオタイプを符号化し、非整合性からステレオタイプへの分類から民族集団を除外する証拠を見出した。
論文 参考訳(メタデータ) (2021-02-03T22:50:04Z) - Quota-based debiasing can decrease representation of already
underrepresented groups [5.1135133995376085]
1つの属性に基づくクォータに基づくデバイアスは、すでに表現されていないグループの表現を悪化させ、選択の全体的公正性を低下させる可能性があることを示す。
以上の結果から,不平等の根本原因の排除により多くの努力が必要であることが示唆された。
論文 参考訳(メタデータ) (2020-06-13T14:26:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。