論文の概要: Bias, Consistency, and Partisanship in U.S. Asylum Cases: A Machine
Learning Analysis of Extraneous Factors in Immigration Court Decisions
- arxiv url: http://arxiv.org/abs/2305.16471v1
- Date: Thu, 25 May 2023 21:03:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-29 18:17:24.624497
- Title: Bias, Consistency, and Partisanship in U.S. Asylum Cases: A Machine
Learning Analysis of Extraneous Factors in Immigration Court Decisions
- Title(参考訳): 米国の亡命者におけるバイアス・一貫性・参加性:移民裁判所判決における外部要因の機械学習分析
- Authors: Vyoma Raman, Catherine Vera, CJ Manna
- Abstract要約: 本稿では,移民裁判所における個人的およびシステム的バイアスを測定するための,新たな2段階スコアシステムを提案する。
パルチザンは1990年代初頭に増加したが、世紀の変わり目には台頭した。
我々の貢献は、米国の亡命決定プロセスにおける体系的な不平等を露呈する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this study, we introduce a novel two-pronged scoring system to measure
individual and systemic bias in immigration courts under the U.S. Executive
Office of Immigration Review (EOIR). We analyze nearly 6 million immigration
court proceedings and 228 case features to build on prior research showing that
U.S. asylum decisions vary dramatically based on factors that are extraneous to
the merits of a case. We close a critical gap in the literature of variability
metrics that can span space and time. Using predictive modeling, we explain
58.54% of the total decision variability using two metrics: partisanship and
inter-judge cohort consistency. Thus, whether the EOIR grants asylum to an
applicant or not depends in majority on the combined effects of the political
climate and the individual variability of the presiding judge - not the
individual merits of the case. Using time series analysis, we also demonstrate
that partisanship increased in the early 1990s but plateaued following the turn
of the century. These conclusions are striking to the extent that they diverge
from the U.S. immigration system's commitments to independence and due process.
Our contributions expose systemic inequities in the U.S. asylum decision-making
process, and we recommend improved and standardized variability metrics to
better diagnose and monitor these issues.
- Abstract(参考訳): 本研究では,米国移民審査局(eoir)の移民裁判所における個人および体系的バイアスを測定するための,新たな2段階評価システムを提案する。
我々は、600万件近い移民裁判所の手続と228件のケースの特徴を分析し、アメリカの亡命判決が、事件のメリットに余計な要因に基づいて劇的に変化することを示している。
私たちは、空間と時間にまたがる可変性メトリクスの文献における重要なギャップを埋めます。
予測モデルを用いて,2つの指標を用いて,意思決定の総変動率の58.54%を説明する。
したがって、EOIRが申請者に亡命を許可するか否かは、個人の利益ではなく、政治的気候と主席判事の個人的多様性の複合効果に大きく依存する。
時系列分析により,1990年代前半にパルチザンが増加したが,世紀の変わり目以降に台頭したことを示す。
これらの結論は、米国移民制度の独立とデュープロセスへのコミットメントから逸脱する程度に顕著である。
当社のコントリビューションは,米国亡命意思決定プロセスにおけるシステム的不平等を明らかにするとともに,これらの問題を診断および監視するために,改良および標準化されたバラエティ指標を推奨する。
関連論文リスト
- Representation Bias in Political Sample Simulations with Large Language Models [54.48283690603358]
本研究は,大規模言語モデルを用いた政治サンプルのシミュレーションにおけるバイアスの同定と定量化を目的とする。
GPT-3.5-Turboモデルを用いて、米国選挙研究、ドイツ縦割り選挙研究、ズオビアオデータセット、中国家族パネル研究のデータを活用する。
論文 参考訳(メタデータ) (2024-07-16T05:52:26Z) - What's in a Name? Auditing Large Language Models for Race and Gender
Bias [49.28899492966893]
我々は、GPT-4を含む最先端の大規模言語モデルのバイアスを調査するために監査設計を採用する。
このアドバイスは、一般的に人種的マイノリティや女性に結びついている名前に系統的に不利であることがわかった。
論文 参考訳(メタデータ) (2024-02-21T18:25:25Z) - Refugee status determination: how cooperation with machine learning
tools can lead to more justice [1.8130068086063336]
難民状況判断に関する以前の研究は、アプリケーションの結果の予測は、極めて少数の特徴を満足のいく精度で導き出すことができることを示した。
この記事では、難民法決定におけるノイズ低減に機械学習が役立つ方法について説明する。
論文 参考訳(メタデータ) (2023-08-22T16:16:27Z) - Equal Confusion Fairness: Measuring Group-Based Disparities in Automated
Decision Systems [5.076419064097733]
本稿では,公正度の自動判定システムをチェックするための等混乱公正度試験と,不公平度を定量化するための新しい混乱パリティ誤差を提案する。
全体として、ここで提供される方法とメトリクスは、より広範な説明責任評価の一環として、自動決定システムの公正性を評価することができる。
論文 参考訳(メタデータ) (2023-07-02T04:44:19Z) - When mitigating bias is unfair: multiplicity and arbitrariness in algorithmic group fairness [8.367620276482056]
本稿では,5次元によるバイアス緩和を評価するFRAME(FaiRness Arbitrariness and Multiplicity Evaluation)フレームワークを紹介する。
FRAMEをキーデータセット全体にわたる様々なバイアス緩和アプローチに適用することにより、デバイアス手法の挙動に顕著な違いを示すことができる。
これらの知見は、現在の公平性基準の限界と、偏見過程における固有の仲裁性を強調している。
論文 参考訳(メタデータ) (2023-02-14T16:53:52Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - Decision Making with Differential Privacy under a Fairness Lens [65.16089054531395]
アメリカ国勢調査局は、多くの重要な意思決定プロセスの入力として使用される個人のグループに関するデータセットと統計を公表している。
プライバシと機密性要件に従うために、これらの機関は、しばしば、プライバシを保存するバージョンのデータを公開する必要がある。
本稿では,差分的プライベートデータセットのリリースについて検討し,公平性の観点から重要な資源配分タスクに与える影響を考察する。
論文 参考訳(メタデータ) (2021-05-16T21:04:19Z) - Equality before the Law: Legal Judgment Consistency Analysis for
Fairness [55.91612739713396]
本論文では,LInCo(Legal Inconsistency Coefficient)の判定不整合性評価指標を提案する。
法的な判断予測(LJP)モデルを用いて異なる集団の裁判官をシミュレートし、異なる集団で訓練されたLJPモデルによる判断結果の不一致を判断する。
私達はLInCoを実際の場合の不一致を探検するために使用し、次の観察に来ます:(1)地域およびジェンダーの不一致は法制度でありますが、ジェンダーの不一致は地方不一致より大いにより少しです。
論文 参考訳(メタデータ) (2021-03-25T14:28:00Z) - Quota-based debiasing can decrease representation of already
underrepresented groups [5.1135133995376085]
1つの属性に基づくクォータに基づくデバイアスは、すでに表現されていないグループの表現を悪化させ、選択の全体的公正性を低下させる可能性があることを示す。
以上の結果から,不平等の根本原因の排除により多くの努力が必要であることが示唆された。
論文 参考訳(メタデータ) (2020-06-13T14:26:42Z) - Why Fairness Cannot Be Automated: Bridging the Gap Between EU
Non-Discrimination Law and AI [10.281644134255576]
欧州における差別の概念と既存の公正性に関する統計的尺度の間には、重大な矛盾がある。
我々は、人間ではなくAIが差別するときに、非差別法によって提供される法的保護がいかに挑戦されるかを示す。
標準基準統計量として「条件付き人口格差」(CDD)を提案する。
論文 参考訳(メタデータ) (2020-05-12T16:30:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。