論文の概要: Quantifying Stereotypes in Language
- arxiv url: http://arxiv.org/abs/2401.15535v1
- Date: Sun, 28 Jan 2024 01:07:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-30 17:51:54.022238
- Title: Quantifying Stereotypes in Language
- Title(参考訳): 言語におけるステレオタイプの定量化
- Authors: Yang Liu
- Abstract要約: データセットをアノテートすることで,言語におけるステレオタイプを定量化する。
我々は、プレトレーニング言語モデル(PLM)を用いて、このデータセットを学習し、文のステレオタイプを予測する。
我々は、ヘイトスピーチ、性差別、感情、不利で有利なグループなど、一般的な社会問題に関するステレオタイプについて議論する。
- 参考スコア(独自算出の注目度): 6.697298321551588
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A stereotype is a generalized perception of a specific group of humans. It is
often potentially encoded in human language, which is more common in texts on
social issues. Previous works simply define a sentence as stereotypical and
anti-stereotypical. However, the stereotype of a sentence may require
fine-grained quantification. In this paper, to fill this gap, we quantify
stereotypes in language by annotating a dataset. We use the pre-trained
language models (PLMs) to learn this dataset to predict stereotypes of
sentences. Then, we discuss stereotypes about common social issues such as hate
speech, sexism, sentiments, and disadvantaged and advantaged groups. We
demonstrate the connections and differences between stereotypes and common
social issues, and all four studies validate the general findings of the
current studies. In addition, our work suggests that fine-grained stereotype
scores are a highly relevant and competitive dimension for research on social
issues.
- Abstract(参考訳): ステレオタイプは、人間の特定のグループの一般的な認識である。
しばしば人間の言語でエンコードされるが、社会問題に関するテキストではより一般的である。
以前の著作では、単に文章をステレオタイプと反ステレオタイプと定義している。
しかし、文のステレオタイプは細かな定量化を必要とすることがある。
本稿では,このギャップを埋めるために,データセットをアノテートすることで,言語のステレオタイプを定量化する。
我々は、プレトレーニング言語モデル(PLM)を用いて、このデータセットを学習し、文のステレオタイプを予測する。
そして、ヘイトスピーチ、セクシズム、感情、不利で有利なグループなど、一般的な社会問題に関するステレオタイプについて議論する。
本研究は,ステレオタイプと社会問題との関連と相違を実証し,これら4つの研究から,本研究の一般的な知見を検証した。
さらに,本研究は,詳細なステレオタイプスコアが社会問題研究の極めて重要かつ競争的な要素であることを示唆している。
関連論文リスト
- Spoken Stereoset: On Evaluating Social Bias Toward Speaker in Speech Large Language Models [50.40276881893513]
本研究では,音声大言語モデル(SLLM)における社会的バイアスの評価を目的としたデータセットであるSpken Stereosetを紹介する。
多様な人口集団の発話に対して異なるモデルがどのように反応するかを調べることで、これらのバイアスを特定することを目指している。
これらの結果から,ほとんどのモデルではバイアスが最小であるが,ステレオタイプや反ステレオタイプ傾向がわずかにみられた。
論文 参考訳(メタデータ) (2024-08-14T16:55:06Z) - GeniL: A Multilingual Dataset on Generalizing Language [19.43611224855484]
生成言語におけるステレオタイプの存在を評価するための現在の手法は、単純なテンプレートや共起に基づく尺度に依存している。
意味的文脈を理解することは一般化の事例を検出するために重要であると論じる。
我々は、一般化の例に注釈を付けた9言語から50K以上の文からなる多言語データセットGeniLを構築した。
論文 参考訳(メタデータ) (2024-04-08T20:58:06Z) - Comparing Biases and the Impact of Multilingual Training across Multiple
Languages [70.84047257764405]
ダウンストリーム感情分析タスクにおいて,イタリア語,中国語,英語,ヘブライ語,スペイン語のバイアス分析を行う。
我々は、既存の感情バイアスのテンプレートを、人種、宗教、国籍、性別の4つの属性で、イタリア語、中国語、ヘブライ語、スペイン語に適応させる。
以上の結果から,各言語の文化に支配的な集団の嗜好など,バイアス表現の類似性を明らかにした。
論文 参考訳(メタデータ) (2023-05-18T18:15:07Z) - Easily Accessible Text-to-Image Generation Amplifies Demographic
Stereotypes at Large Scale [61.555788332182395]
危険で複雑なステレオタイプを増幅する機械学習モデルの可能性を検討する。
さまざまな通常のプロンプトがステレオタイプを生成しており、それらは単に特性、記述子、職業、オブジェクトに言及するプロンプトを含む。
論文 参考訳(メタデータ) (2022-11-07T18:31:07Z) - Hate Speech Classifiers Learn Human-Like Social Stereotypes [4.132204773132937]
社会的ステレオタイプは、異なるグループについての個人の判断に悪影響を及ぼす。
社会的ステレオタイプは、人々が少数民族社会グループに向けられた言語をどのように理解するかにおいて重要な役割を担っている。
論文 参考訳(メタデータ) (2021-10-28T01:35:41Z) - Stepmothers are mean and academics are pretentious: What do pretrained
language models learn about you? [11.107926166222452]
本稿では,社会集団のステレオタイプ属性を構成する最初のデータセットについて述べる。
本研究では,事前学習された言語モデルによって符号化されたステレオタイプを教師なしで抽出する手法を提案する。
論文 参考訳(メタデータ) (2021-09-21T09:44:57Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z) - Understanding and Countering Stereotypes: A Computational Approach to
the Stereotype Content Model [4.916009028580767]
ステレオタイプコンテンツモデル(SCM)を用いてテキスト中のステレオタイプを解釈する計算手法を提案する。
SCMは、ステレオタイプは温かさと能力の2つの主要な次元に沿って理解することができると提案している。
反ステレオタイプ的な例によるステレオタイプに対抗することは、偏見的思考を減らす最も効果的な方法の1つであることが知られている。
論文 参考訳(メタデータ) (2021-06-04T16:53:37Z) - UnQovering Stereotyping Biases via Underspecified Questions [68.81749777034409]
未特定質問からバイアスを探索・定量化するためのフレームワークUNQOVERを提案する。
モデルスコアの素直な使用は,2種類の推論誤差による誤ったバイアス推定につながる可能性があることを示す。
我々はこの指標を用いて、性別、国籍、民族、宗教の4つの重要なステレオタイプの分析を行う。
論文 参考訳(メタデータ) (2020-10-06T01:49:52Z) - CrowS-Pairs: A Challenge Dataset for Measuring Social Biases in Masked
Language Models [30.582132471411263]
Crowd Stereotype Pairsベンチマーク(CrowS-Pairs)を紹介する。
CrowS-Pairsには1508の例があり、人種、宗教、年齢など9種類の偏見を扱うステレオタイプをカバーしている。
その結果, CrowS-Pairs の各カテゴリーにおいて, 広く使われている3つの文のすべてが, 実質的にステレオタイプを好んでいることがわかった。
論文 参考訳(メタデータ) (2020-09-30T22:38:40Z) - Towards Controllable Biases in Language Generation [87.89632038677912]
本研究では、特定の人口集団の言及を含む入力プロンプトによって生成されたテキストの社会的バイアスを誘導する手法を開発した。
1 つの人口統計学において負のバイアスを誘発し、もう1 つの人口統計学において正のバイアスを誘導し、2 つのシナリオを分析する。
論文 参考訳(メタデータ) (2020-05-01T08:25:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。