論文の概要: Suum Cuique: Studying Bias in Taboo Detection with a Community
Perspective
- arxiv url: http://arxiv.org/abs/2203.11401v1
- Date: Tue, 22 Mar 2022 00:45:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-23 12:48:16.916159
- Title: Suum Cuique: Studying Bias in Taboo Detection with a Community
Perspective
- Title(参考訳): Suum Cuique:コミュニティから見たタブー検出におけるバイアスの研究
- Authors: Osama Khalid, Jonathan Rusert, Padmini Srinivasan
- Abstract要約: 本研究では,コミュニティの視点が前後にあるタブー分類とアノテーションのバイアスを調査する手法を提案する。
我々は、それぞれのコミュニティの言語に合わせて調整された特別な分類器を使用してバイアスを研究し、例えば、偏見はアフリカ系アメリカ人に対して最大である。
この論文は、少数民族社会に害を与える偽陽性のタブー決定を減らすための重要なステップである。
- 参考スコア(独自算出の注目度): 2.1270496914042996
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prior research has discussed and illustrated the need to consider linguistic
norms at the community level when studying taboo (hateful/offensive/toxic etc.)
language. However, a methodology for doing so, that is firmly founded on
community language norms is still largely absent. This can lead both to biases
in taboo text classification and limitations in our understanding of the causes
of bias. We propose a method to study bias in taboo classification and
annotation where a community perspective is front and center. This is
accomplished by using special classifiers tuned for each community's language.
In essence, these classifiers represent community level language norms. We use
these to study bias and find, for example, biases are largest against African
Americans (7/10 datasets and all 3 classifiers examined). In contrast to
previous papers we also study other communities and find, for example, strong
biases against South Asians. In a small scale user study we illustrate our key
idea which is that common utterances, i.e., those with high alignment scores
with a community (community classifier confidence scores) are unlikely to be
regarded taboo. Annotators who are community members contradict taboo
classification decisions and annotations in a majority of instances. This paper
is a significant step toward reducing false positive taboo decisions that over
time harm minority communities.
- Abstract(参考訳): 先行研究では、タブー言語を研究する際、コミュニティレベルで言語規範を考える必要性を議論し、示してきた。
しかし、コミュニティ言語規範に基づいてしっかりと確立された、それを行う方法論は、いまだにほとんど欠落している。
これはタブーテキストの分類におけるバイアスと、バイアスの原因を理解することの限界の両方につながる可能性がある。
本研究では,コミュニティの視点が前後にあるタブー分類とアノテーションのバイアスを調査する手法を提案する。
これは、各コミュニティの言語に合わせて調整された特別な分類器を使用することで達成される。
本質的に、これらの分類器はコミュニティレベルの言語規範を表している。
例えば、偏見はアフリカ系アメリカ人に対して最大である(7/10データセットと3つの分類器すべて)。
以前の論文とは対照的に、他のコミュニティも調査し、例えば、南アジア人に対する強い偏見を見つける。
小規模ユーザスタディでは,コミュニティとの協調度が高い人(コミュニティ分類子信頼度スコア)はタブーとはみなされない,という共通発話の鍵となる概念を提示する。
コミュニティメンバーである注釈家は、ほとんどの例でタブーの分類決定とアノテーションと矛盾している。
本稿は,マイノリティコミュニティを害する偽陽性タブー意思決定を減らすための重要なステップである。
関連論文リスト
- Semantic Properties of cosine based bias scores for word embeddings [48.0753688775574]
本稿では,バイアスの定量化に有効なバイアススコアの要件を提案する。
これらの要件について,コサインに基づくスコアを文献から分析する。
これらの結果は、バイアススコアの制限がアプリケーションケースに影響を及ぼすことを示す実験で裏付けられている。
論文 参考訳(メタデータ) (2024-01-27T20:31:10Z) - GPTBIAS: A Comprehensive Framework for Evaluating Bias in Large Language
Models [83.30078426829627]
大規模言語モデル(LLM)は人気を集め、大規模なユーザコミュニティで広く採用されている。
既存の評価手法には多くの制約があり、それらの結果は限定的な解釈可能性を示している。
本稿では,LPMの高性能性を活用し,モデル内のバイアスを評価するGPTBIASというバイアス評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-11T12:02:14Z) - What Do Llamas Really Think? Revealing Preference Biases in Language
Model Representations [62.91799637259657]
大規模言語モデル(LLMs)は、応答を辞退しても、社会的な偏見を示すか?
本研究は,文脈的埋め込みを探索し,このバイアスが潜在表現にエンコードされているかどうかを探索することによって検討する。
単語の隠れベクトルからLLMの単語ペア選好を予測するロジスティックなBradley-Terryプローブを提案する。
論文 参考訳(メタデータ) (2023-11-30T18:53:13Z) - Evaluating Biased Attitude Associations of Language Models in an
Intersectional Context [2.891314299138311]
言語モデルは、心理学で文書化された暗黙のバイアスを埋め込んだ大規模コーパスで訓練される。
我々は、年齢、教育、性別、身長、知性、識字性、人種、宗教、性、性的指向、社会階級、体重に関するバイアスを研究する。
言語モデルは、性同一性、社会的階級、性的指向のシグナルに対して最も偏りのある態度を示す。
論文 参考訳(メタデータ) (2023-07-07T03:01:56Z) - The SAME score: Improved cosine based bias score for word embeddings [49.75878234192369]
埋め込みにおけるセマンティックバイアスのための新しいバイアススコアであるPetを紹介した。
本研究は,下水道作業における意味バイアスを測定し,社会的バイアスの潜在的な原因を特定することができることを示す。
論文 参考訳(メタデータ) (2022-03-28T09:28:13Z) - Socially Aware Bias Measurements for Hindi Language Representations [38.40818373580979]
偏見は、広く話されている地域の歴史と文化に基づいて、特定の言語表現に特有のものであることを示す。
我々は,言語表現のモデル化において,言語的・文法的アーティファクトとともに,社会認識の必要性を強調した。
論文 参考訳(メタデータ) (2021-10-15T05:49:15Z) - Mitigating Racial Biases in Toxic Language Detection with an
Equity-Based Ensemble Framework [9.84413545378636]
最近の研究では、アフリカ系アメリカ人の英語を書いているユーザーに対する人種的偏見が、人気のある有毒な言語データセットに存在することが示されている。
これらのバイアスの発生源をよりよく理解するために、さらに説明的公正度指標を提案する。
提案手法は,モデルがこれらのデータセットから学習する人種的バイアスを大幅に低減することを示す。
論文 参考訳(メタデータ) (2021-09-27T15:54:05Z) - Discovering and Categorising Language Biases in Reddit [5.670038395203354]
本稿では,Reddit上のオンライン談話コミュニティの語彙に符号化された言語バイアスを自動的に検出するデータ駆動型手法を提案する。
単語埋め込みを用いて、テキストを高次元の高密度ベクトルに変換し、単語間の意味的関係をキャプチャする。
さまざまなRedditコミュニティにおいて、ジェンダーバイアス、宗教バイアス、民族バイアスの発見に成功しました。
論文 参考訳(メタデータ) (2020-08-06T16:42:10Z) - Towards Debiasing Sentence Representations [109.70181221796469]
Sent-Debiasはバイアスを取り除くのに有効であり、同時に文レベルの下流タスクのパフォーマンスを保っていることを示す。
我々は、より公平なNLPのための広く採用されている文表現から社会的偏見を識別・除去する今後の研究に刺激を与えることを期待している。
論文 参考訳(メタデータ) (2020-07-16T04:22:30Z) - Towards Controllable Biases in Language Generation [87.89632038677912]
本研究では、特定の人口集団の言及を含む入力プロンプトによって生成されたテキストの社会的バイアスを誘導する手法を開発した。
1 つの人口統計学において負のバイアスを誘発し、もう1 つの人口統計学において正のバイアスを誘導し、2 つのシナリオを分析する。
論文 参考訳(メタデータ) (2020-05-01T08:25:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。