論文の概要: Racial Bias Trends in the Text of US Legal Opinions
- arxiv url: http://arxiv.org/abs/2307.01693v1
- Date: Tue, 4 Jul 2023 12:56:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-06 17:10:37.378876
- Title: Racial Bias Trends in the Text of US Legal Opinions
- Title(参考訳): 米国の法的意見のテキストにおける人種バイアスの傾向
- Authors: Rohan Jinturkar
- Abstract要約: 我々は1860年から2009年までの600万件の連邦および州裁判所におけるGloVe単語の埋め込みを近似した。
ほぼすべての地域と期間に人種的偏見の強い証拠が見つかる。
また、1950年以前の法的意見が1950年以前のものよりも暗黙的な人種的偏見を示すかどうかも検証した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Although there is widespread recognition of racial bias in US law, it is
unclear how such bias appears in the language of law, namely judicial opinions,
and whether it varies across time period or region. Building upon approaches
for measuring implicit racial bias in large-scale corpora, we approximate GloVe
word embeddings for over 6 million US federal and state court cases from 1860
to 2009. We find strong evidence of racial bias across nearly all regions and
time periods, as traditionally Black names are more closely associated with
pre-classified "unpleasant" terms whereas traditionally White names are more
closely associated with pre-classified "pleasant" terms. We also test whether
legal opinions before 1950 exhibit more implicit racial bias than those after
1950, as well as whether opinions from Southern states exhibit less change in
racial bias than those from Northeastern states. We do not find evidence of
elevated bias in legal opinions before 1950, or evidence that legal opinions
from Northeastern states show greater change in racial bias over time compared
to Southern states. These results motivate further research into
institutionalized racial bias.
- Abstract(参考訳): アメリカの法律には人種的偏見が広く認識されているが、そのような偏見が法律の言語、すなわち司法的意見にどのように現れるのか、また時代や地域によって異なるのかは不明である。
大規模コーパスにおける暗黙の人種的偏見を測定するアプローチに基づいて、GloVeワードの埋め込みを1860年から2009年までの600万件以上の連邦および州裁判所で近似した。
伝統的に黒人の名は事前分類された「不快な」用語とより密接に関連しており、伝統的に白人の名は事前分類された「不快な」用語とより密接に関連している。
また、1950年以前の法的意見が1950年以前のものよりも暗黙的な人種的偏見を示すか、また南部州の意見が北東部のものよりも人種的偏見の変化が少ないかを検証した。
1950年以前の法的な意見に偏見が高まっている証拠や、北東部州の法的な意見が南部州に比べて人種的偏見が大きく変化している証拠は見つからない。
これらの結果は、制度化された人種バイアスに対するさらなる研究の動機となった。
関連論文リスト
- A Causal Framework to Evaluate Racial Bias in Law Enforcement Systems [13.277413612930102]
犯罪を取り入れた多段階因果関係の枠組みを提案する。
空港のセキュリティのような設定では、人種に対する監視バイアスの主な原因は、人種の無実に対する法執行機関のバイアスである可能性が高い。
警察と市民の相互作用において、人種に対する観察された偏見の主な原因は、人種に対する法執行機関の偏見や、他の人種に対する報告における一般大衆からの偏見である可能性がある。
論文 参考訳(メタデータ) (2024-02-22T20:41:43Z) - What's in a Name? Auditing Large Language Models for Race and Gender
Bias [49.28899492966893]
我々は、GPT-4を含む最先端の大規模言語モデルのバイアスを調査するために監査設計を採用する。
このアドバイスは、一般的に人種的マイノリティや女性に結びついている名前に系統的に不利であることがわかった。
論文 参考訳(メタデータ) (2024-02-21T18:25:25Z) - What Do Llamas Really Think? Revealing Preference Biases in Language
Model Representations [62.91799637259657]
大規模言語モデル(LLMs)は、応答を辞退しても、社会的な偏見を示すか?
本研究は,文脈的埋め込みを探索し,このバイアスが潜在表現にエンコードされているかどうかを探索することによって検討する。
単語の隠れベクトルからLLMの単語ペア選好を予測するロジスティックなBradley-Terryプローブを提案する。
論文 参考訳(メタデータ) (2023-11-30T18:53:13Z) - Unveiling the Hidden Agenda: Biases in News Reporting and Consumption [59.55900146668931]
イタリアのワクチン論争に関する6年間のデータセットを構築し、物語と選択バイアスを特定するためにベイジアン潜在空間モデルを採用する。
バイアスとエンゲージメントの間に非線形な関係が見られ、極端な位置へのエンゲージメントが高くなった。
Twitter上でのニュース消費の分析は、同様のイデオロギー的な立場のニュースメディアの間で、一般的なオーディエンスを明らかにしている。
論文 参考訳(メタデータ) (2023-01-14T18:58:42Z) - Causal foundations of bias, disparity and fairness [0.0]
偏見を不当な直接的な因果効果として定義することを提案する。
偏差をバイアスを含む直接的あるいは間接的な因果効果として定義することを提案する。
提案した定義は、より厳密で体系的な方法でバイアスと格差を研究するために使用することができる。
論文 参考訳(メタデータ) (2022-07-27T17:33:04Z) - The SAME score: Improved cosine based bias score for word embeddings [49.75878234192369]
埋め込みにおけるセマンティックバイアスのための新しいバイアススコアであるPetを紹介した。
本研究は,下水道作業における意味バイアスを測定し,社会的バイアスの潜在的な原因を特定することができることを示す。
論文 参考訳(メタデータ) (2022-03-28T09:28:13Z) - Suum Cuique: Studying Bias in Taboo Detection with a Community
Perspective [2.1270496914042996]
本研究では,コミュニティの視点が前後にあるタブー分類とアノテーションのバイアスを調査する手法を提案する。
我々は、それぞれのコミュニティの言語に合わせて調整された特別な分類器を使用してバイアスを研究し、例えば、偏見はアフリカ系アメリカ人に対して最大である。
この論文は、少数民族社会に害を与える偽陽性のタブー決定を減らすための重要なステップである。
論文 参考訳(メタデータ) (2022-03-22T00:45:39Z) - Regional Negative Bias in Word Embeddings Predicts Racial Animus--but
only via Name Frequency [2.247786323899963]
地理的にタグ付けされたソーシャルメディアデータからの反黒人WEAT推定は、人種的アニマスのいくつかの指標と強く相関していることを示す。
また,これらの相関関係は,ブラックネームとホワイトネームの相関関係において,ブラックネームの頻度によって説明されることを示した。
論文 参考訳(メタデータ) (2022-01-20T20:52:12Z) - Argument from Old Man's View: Assessing Social Bias in Argumentation [20.65183968971417]
言語における社会的バイアスは多くのNLPアプリケーションに倫理的影響をもたらす。
最近の研究では、各データに基づいてトレーニングされた機械学習モデルが採用されるだけでなく、バイアスを増幅する可能性があることが示されている。
大規模な英語討論ポータルにおける社会的偏見の存在について検討する。
論文 参考訳(メタデータ) (2020-11-24T10:39:44Z) - Towards Debiasing Sentence Representations [109.70181221796469]
Sent-Debiasはバイアスを取り除くのに有効であり、同時に文レベルの下流タスクのパフォーマンスを保っていることを示す。
我々は、より公平なNLPのための広く採用されている文表現から社会的偏見を識別・除去する今後の研究に刺激を与えることを期待している。
論文 参考訳(メタデータ) (2020-07-16T04:22:30Z) - Towards Controllable Biases in Language Generation [87.89632038677912]
本研究では、特定の人口集団の言及を含む入力プロンプトによって生成されたテキストの社会的バイアスを誘導する手法を開発した。
1 つの人口統計学において負のバイアスを誘発し、もう1 つの人口統計学において正のバイアスを誘導し、2 つのシナリオを分析する。
論文 参考訳(メタデータ) (2020-05-01T08:25:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。