論文の概要: Dialect prejudice predicts AI decisions about people's character,
employability, and criminality
- arxiv url: http://arxiv.org/abs/2403.00742v1
- Date: Fri, 1 Mar 2024 18:43:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 16:36:59.725068
- Title: Dialect prejudice predicts AI decisions about people's character,
employability, and criminality
- Title(参考訳): 方言偏見は、人々の性格、雇用性、犯罪に関するAIの決定を予測する
- Authors: Valentin Hofmann, Pratyusha Ria Kalluri, Dan Jurafsky, Sharese King
- Abstract要約: 言語モデルが方言偏見の形で隠蔽的人種差別を具現化することを示す。
我々の発見は、言語技術の公正かつ安全な利用に、はるかに影響している。
- 参考スコア(独自算出の注目度): 36.448157493217344
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hundreds of millions of people now interact with language models, with uses
ranging from serving as a writing aid to informing hiring decisions. Yet these
language models are known to perpetuate systematic racial prejudices, making
their judgments biased in problematic ways about groups like African Americans.
While prior research has focused on overt racism in language models, social
scientists have argued that racism with a more subtle character has developed
over time. It is unknown whether this covert racism manifests in language
models. Here, we demonstrate that language models embody covert racism in the
form of dialect prejudice: we extend research showing that Americans hold
raciolinguistic stereotypes about speakers of African American English and find
that language models have the same prejudice, exhibiting covert stereotypes
that are more negative than any human stereotypes about African Americans ever
experimentally recorded, although closest to the ones from before the civil
rights movement. By contrast, the language models' overt stereotypes about
African Americans are much more positive. We demonstrate that dialect prejudice
has the potential for harmful consequences by asking language models to make
hypothetical decisions about people, based only on how they speak. Language
models are more likely to suggest that speakers of African American English be
assigned less prestigious jobs, be convicted of crimes, and be sentenced to
death. Finally, we show that existing methods for alleviating racial bias in
language models such as human feedback training do not mitigate the dialect
prejudice, but can exacerbate the discrepancy between covert and overt
stereotypes, by teaching language models to superficially conceal the racism
that they maintain on a deeper level. Our findings have far-reaching
implications for the fair and safe employment of language technology.
- Abstract(参考訳): 何十万人もの人々が現在、言語モデルと対話しており、採用決定を伝えるための執筆支援としての利用も行われている。
しかし、これらの言語モデルは体系的な人種的偏見を永続させることで知られており、彼らの判断はアフリカ系アメリカ人のような集団に関する問題的な方法に偏っている。
以前の研究は言語モデルの過度な人種差別に焦点を当ててきたが、社会科学者は、より微妙な性格を持つ人種差別は時間とともに発展してきたと主張している。
この隠密な人種差別が言語モデルに現れるかどうかは不明である。
ここでは、言語モデルが方言偏見の形で隠蔽的人種差別を具現化していることを示す。我々は、アメリカ人がアフリカ系アメリカ人の話者について人種差別的ステレオタイプを持っていることを示す研究を拡張し、言語モデルが同じ偏見を持っていることを発見し、アフリカ系アメリカ人が実験的に記録したどの人間のステレオタイプよりも否定的な隠蔽的ステレオタイプを示す。
対照的に、アフリカ系アメリカ人に関する言語モデルの過剰なステレオタイプの方がずっと肯定的である。
本研究では,方言の偏見が言語モデルに人に関する仮説的判断を求めることによって有害な結果をもたらす可能性を実証する。
言語モデルは、アフリカ系アメリカ人の英語話者は、権威ある職を割り当てられず、犯罪で有罪となり、死刑に処されることを示唆する可能性が高い。
最後に、人間のフィードバックトレーニングのような言語モデルにおける人種差別バイアスを軽減する既存の手法は、方言偏見を緩和するものではなく、より深いレベルで維持する人種差別を表面的に隠蔽する言語モデルを教えることによって、隠蔽とオーバートステレオタイプとの相違を悪化させる可能性があることを示す。
我々の発見は、言語技術の公正で安全な雇用に広く影響している。
関連論文リスト
- Spoken Stereoset: On Evaluating Social Bias Toward Speaker in Speech Large Language Models [50.40276881893513]
本研究では,音声大言語モデル(SLLM)における社会的バイアスの評価を目的としたデータセットであるSpken Stereosetを紹介する。
多様な人口集団の発話に対して異なるモデルがどのように反応するかを調べることで、これらのバイアスを特定することを目指している。
これらの結果から,ほとんどのモデルではバイアスが最小であるが,ステレオタイプや反ステレオタイプ傾向がわずかにみられた。
論文 参考訳(メタデータ) (2024-08-14T16:55:06Z) - The Devil is in the Neurons: Interpreting and Mitigating Social Biases in Pre-trained Language Models [78.69526166193236]
プレトレーニング言語モデル(PLM)は、社会的バイアスのような有害な情報を含むことが認識されている。
我々は,社会バイアスなどの望ましくない行動に起因する言語モデルにおいて,正確に単位(すなわちニューロン)を特定するために,sc Social Bias Neuronsを提案する。
StereoSetの以前の測定値からわかるように、我々のモデルは、低コストで言語モデリング能力を維持しながら、より高い公平性を達成する。
論文 参考訳(メタデータ) (2024-06-14T15:41:06Z) - Machines Do See Color: A Guideline to Classify Different Forms of Racist
Discourse in Large Corpora [0.0]
テキストで人種差別的言語を識別し分類する現在の手法は、人種差別的言説の過度な形式にのみ焦点をあてる小さなnの質的アプローチや大規模nのアプローチに依存している。
本稿では、大規模コーパスにおける異なる形態の人種差別的言説を識別し分類するためのステップバイステップの一般化可能なガイドラインを提供する。
論文 参考訳(メタデータ) (2024-01-17T16:57:18Z) - Task-Agnostic Low-Rank Adapters for Unseen English Dialects [52.88554155235167]
LLM(Large Language Models)は、標準アメリカ英語を好んで不均等に重み付けされたコーパスで訓練される。
HyperLoRAは、方言特化情報と方言横断情報を混同することにより、タスクに依存しない方法で未確認の方言への一般化を改善する。
論文 参考訳(メタデータ) (2023-11-02T01:17:29Z) - Pre-trained Speech Processing Models Contain Human-Like Biases that
Propagate to Speech Emotion Recognition [4.4212441764241]
本研究では,多くの音声タスクに使用される1種類のモデルのバイアスを検出する手法であるSpeech Embedding Association Test(SpEAT)を提案する。
SpEATを用いて、16の英語音声モデルにおいて6種類のバイアスをテストした。
私たちの研究は、テキストや画像ベースのモデルのように、事前訓練された音声ベースのモデルは、しばしば人間のようなバイアスを学習する、という証拠を提供します。
論文 参考訳(メタデータ) (2023-10-29T02:27:56Z) - Annotators with Attitudes: How Annotator Beliefs And Identities Bias
Toxic Language Detection [75.54119209776894]
本研究では,アノテータのアイデンティティ(誰)と信念(なぜ)が有害な言語アノテーションに与える影響について検討する。
我々は、アンチブラック言語、アフリカ系アメリカ人の英語方言、俗語という3つの特徴を持つポストを考察する。
以上の結果から,アノテータのアイデンティティと信念と毒性評価の相関が強く示唆された。
論文 参考訳(メタデータ) (2021-11-15T18:58:20Z) - Reducing Unintended Identity Bias in Russian Hate Speech Detection [0.21485350418225244]
本稿では、ヘイトスピーチをロシア語で分類する取り組みについて述べる。
本研究では,言語モデルを用いた学習データの生成など,意図しないバイアスを減らすためのシンプルな手法を提案する。
論文 参考訳(メタデータ) (2020-10-22T12:54:14Z) - CrowS-Pairs: A Challenge Dataset for Measuring Social Biases in Masked
Language Models [30.582132471411263]
Crowd Stereotype Pairsベンチマーク(CrowS-Pairs)を紹介する。
CrowS-Pairsには1508の例があり、人種、宗教、年齢など9種類の偏見を扱うステレオタイプをカバーしている。
その結果, CrowS-Pairs の各カテゴリーにおいて, 広く使われている3つの文のすべてが, 実質的にステレオタイプを好んでいることがわかった。
論文 参考訳(メタデータ) (2020-09-30T22:38:40Z) - It's Morphin' Time! Combating Linguistic Discrimination with
Inflectional Perturbations [68.16751625956243]
完全な標準英語コーパスのみが、非標準言語的背景から少数民族を区別するためにニューラルネットワークを前提としている。
我々は、単語の屈折形態を乱して、可塑性で意味論的に類似した逆の例を作る。
論文 参考訳(メタデータ) (2020-05-09T04:01:43Z) - StereoSet: Measuring stereotypical bias in pretrained language models [24.020149562072127]
我々は,4つの領域におけるステレオタイプバイアスを測定するために,英語の大規模自然データセットであるStereoSetを提案する。
我々は,BERT,GPT-2,RoBERTa,XLNetなどの人気モデルをデータセット上で評価し,これらのモデルが強いステレオタイプバイアスを示すことを示す。
論文 参考訳(メタデータ) (2020-04-20T17:14:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。