論文の概要: Social-Group-Agnostic Word Embedding Debiasing via the Stereotype
Content Model
- arxiv url: http://arxiv.org/abs/2210.05831v1
- Date: Tue, 11 Oct 2022 23:26:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 12:06:34.441025
- Title: Social-Group-Agnostic Word Embedding Debiasing via the Stereotype
Content Model
- Title(参考訳): ステレオタイプコンテンツモデルによるソーシャルグループ非依存単語埋め込みデバイアス
- Authors: Ali Omrani, Brendan Kennedy, Mohammad Atari, Morteza Dehghani
- Abstract要約: 既存の単語埋め込みのデバイアス法では、社会的属性ごとにグループ固有の単語ペアが必要である。
本稿では、ステレオタイプコンテンツモデル(SCM)が、社会的グループ非依存化への取り組みを嫌悪するのに役立つことを提案する。
- 参考スコア(独自算出の注目度): 3.0869883531083233
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing word embedding debiasing methods require social-group-specific word
pairs (e.g., "man"-"woman") for each social attribute (e.g., gender), which
cannot be used to mitigate bias for other social groups, making these methods
impractical or costly to incorporate understudied social groups in debiasing.
We propose that the Stereotype Content Model (SCM), a theoretical framework
developed in social psychology for understanding the content of stereotypes,
which structures stereotype content along two psychological dimensions -
"warmth" and "competence" - can help debiasing efforts to become
social-group-agnostic by capturing the underlying connection between bias and
stereotypes. Using only pairs of terms for warmth (e.g., "genuine"-"fake") and
competence (e.g.,"smart"-"stupid"), we perform debiasing with established
methods and find that, across gender, race, and age, SCM-based debiasing
performs comparably to group-specific debiasing
- Abstract(参考訳): 既存の単語埋め込み脱バイアス法では、社会的属性(例えば、性別)ごとに、社会的グループ固有の単語ペア(例えば、man"-"woman")が必要であり、これは他の社会的グループに対するバイアスを軽減するために使用できない。
ステレオタイプコンテンツモデル(ステレオタイプコンテンツモデル、scm)は、社会心理学において、2つの心理的次元に沿ってステレオタイプコンテンツを構成するステレオタイプコンテンツを理解するために開発された理論的枠組みである。
ウォームネス(例: "genuine"-"fake")とコンピテンス(例:"smart"-"stupid")の2つの用語のみを使用して、確立された方法によるデバイアスを行い、性別、人種、年齢において、scmベースのデバイアスはグループ固有のデバイアスと互換性があることを示す。
関連論文リスト
- The Devil is in the Neurons: Interpreting and Mitigating Social Biases in Pre-trained Language Models [78.69526166193236]
プレトレーニング言語モデル(PLM)は、社会的バイアスのような有害な情報を含むことが認識されている。
我々は,社会バイアスなどの望ましくない行動に起因する言語モデルにおいて,正確に単位(すなわちニューロン)を特定するために,sc Social Bias Neuronsを提案する。
StereoSetの以前の測定値からわかるように、我々のモデルは、低コストで言語モデリング能力を維持しながら、より高い公平性を達成する。
論文 参考訳(メタデータ) (2024-06-14T15:41:06Z) - ''Fifty Shades of Bias'': Normative Ratings of Gender Bias in GPT
Generated English Text [11.085070600065801]
言語は、社会的信念システムの顕在化のための強力なツールとして機能する。
ジェンダーバイアスは、私たちの社会でもっとも普及しているバイアスの1つです。
我々は、GPT生成した英語テキストの最初のデータセットを作成し、男女バイアスの規範的評価を行う。
論文 参考訳(メタデータ) (2023-10-26T14:34:06Z) - Evaluating Biased Attitude Associations of Language Models in an
Intersectional Context [2.891314299138311]
言語モデルは、心理学で文書化された暗黙のバイアスを埋め込んだ大規模コーパスで訓練される。
我々は、年齢、教育、性別、身長、知性、識字性、人種、宗教、性、性的指向、社会階級、体重に関するバイアスを研究する。
言語モデルは、性同一性、社会的階級、性的指向のシグナルに対して最も偏りのある態度を示す。
論文 参考訳(メタデータ) (2023-07-07T03:01:56Z) - No Word Embedding Model Is Perfect: Evaluating the Representation
Accuracy for Social Bias in the Media [17.4812995898078]
我々は,米国オンラインニュース記事に存在する社会バイアスの種類を正確に測定するために,どのような埋め込みアルゴリズムが最適かを検討する。
我々は500万の記事を収集し、予想される社会的偏見に関して心理学文献をレビューする。
我々は、ニュース記事のアルゴリズムでトレーニングされたモデルが、期待される社会的バイアスをどう表すかを比較する。
論文 参考訳(メタデータ) (2022-11-07T15:45:52Z) - Debiasing Word Embeddings with Nonlinear Geometry [37.88933175338274]
この研究は、複数の社会的カテゴリーに関連するバイアスを研究する。
個々のバイアスは1次元の部分空間上で非自明に交わる。
次に、個人バイアスの非線形幾何学を用いて、複数の社会的カテゴリに対するデバイアスに対する交叉部分空間を構築する。
論文 参考訳(メタデータ) (2022-08-29T21:40:27Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z) - Fairness for Image Generation with Uncertain Sensitive Attributes [97.81354305427871]
この研究は、画像超解像のような生成手順の文脈における公平性の問題に取り組む。
伝統的群フェアネスの定義は通常、指定された保護された群に関して定義されるが、本質的な真偽は存在しないことを強調する。
人口比率の自然拡大はグループ化に強く依存しており、明白に達成可能であることを示す。
論文 参考訳(メタデータ) (2021-06-23T06:17:17Z) - Robustness and Reliability of Gender Bias Assessment in Word Embeddings:
The Role of Base Pairs [23.574442657224008]
単語埋め込みはジェンダーバイアスを示すことが示されており、これを定量化するために様々な方法が提案されている。
これまでの研究では、男女の単語ペアを利用して偏見を測定し、偏見のある類似点を抽出してきた。
これらの性的なペアへの依存には、強い制限があることが示される。
特に、"man is to computer-grammer as woman is to homemaker"というよく知られたアナロジーは、社会的バイアスよりも言葉の類似性によるものである。
論文 参考訳(メタデータ) (2020-10-06T16:09:05Z) - Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by
Ranking Algorithms [68.85295025020942]
本稿では,性別ステレオタイプをサポートする検索エンジンの傾向を定量化するジェンダーステレオタイプ強化(GSR)尺度を提案する。
GSRは、表現上の害を定量化できる情報検索のための、最初の特別に調整された尺度である。
論文 参考訳(メタデータ) (2020-09-02T20:45:04Z) - Towards Debiasing Sentence Representations [109.70181221796469]
Sent-Debiasはバイアスを取り除くのに有効であり、同時に文レベルの下流タスクのパフォーマンスを保っていることを示す。
我々は、より公平なNLPのための広く採用されている文表現から社会的偏見を識別・除去する今後の研究に刺激を与えることを期待している。
論文 参考訳(メタデータ) (2020-07-16T04:22:30Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。