論文の概要: When do Word Embeddings Accurately Reflect Surveys on our Beliefs About
People?
- arxiv url: http://arxiv.org/abs/2004.12043v1
- Date: Sat, 25 Apr 2020 02:42:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 21:43:04.086962
- Title: When do Word Embeddings Accurately Reflect Surveys on our Beliefs About
People?
- Title(参考訳): 単語埋め込みはいつ、人々の信念に関する調査を正確に反映するのか?
- Authors: Kenneth Joseph and Jonathan H. Morgan
- Abstract要約: 特定の種類の人々の信念を正確に反映した単語埋め込みについて検討する。
単語埋め込みに見られるバイアスは、平均して、社会意味の17次元にわたる調査データを密接に反映している。
- 参考スコア(独自算出の注目度): 6.22586538075415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Social biases are encoded in word embeddings. This presents a unique
opportunity to study society historically and at scale, and a unique danger
when embeddings are used in downstream applications. Here, we investigate the
extent to which publicly-available word embeddings accurately reflect beliefs
about certain kinds of people as measured via traditional survey methods. We
find that biases found in word embeddings do, on average, closely mirror survey
data across seventeen dimensions of social meaning. However, we also find that
biases in embeddings are much more reflective of survey data for some
dimensions of meaning (e.g. gender) than others (e.g. race), and that we can be
highly confident that embedding-based measures reflect survey data only for the
most salient biases.
- Abstract(参考訳): 社会バイアスは単語埋め込みで符号化される。
これは社会を歴史的かつ大規模に研究するユニークな機会であり、下流のアプリケーションに埋め込む際にはユニークな危険をもたらす。
そこで本研究では,ある種類の人々の信念を,従来の調査手法で正確に反映する手法について検討する。
単語埋め込みに見られるバイアスは、平均して、社会意味の17次元にわたる調査データを密接に反映している。
しかし、埋め込みにおけるバイアスは、ある意味の次元(例えば性別)に対する調査データ(例えば人種)を、他の次元(例えば人種)よりもずっと反映しており、埋め込みに基づく尺度が調査データを反映しているという確信も高い。
関連論文リスト
- Mitigating Gender Bias in Contextual Word Embeddings [1.208453901299241]
本稿では,コンテキスト埋め込みにおける性別バイアスを大幅に軽減する,リップスティック(マスケ・ランゲージ・モデリング)の新たな目的関数を提案する。
また, 静的な埋め込みを嫌悪する新しい手法を提案し, 広範囲な解析と実験による実証実験を行った。
論文 参考訳(メタデータ) (2024-11-18T21:36:44Z) - What Do Llamas Really Think? Revealing Preference Biases in Language
Model Representations [62.91799637259657]
大規模言語モデル(LLMs)は、応答を辞退しても、社会的な偏見を示すか?
本研究は,文脈的埋め込みを探索し,このバイアスが潜在表現にエンコードされているかどうかを探索することによって検討する。
単語の隠れベクトルからLLMの単語ペア選好を予測するロジスティックなBradley-Terryプローブを提案する。
論文 参考訳(メタデータ) (2023-11-30T18:53:13Z) - No Word Embedding Model Is Perfect: Evaluating the Representation
Accuracy for Social Bias in the Media [17.4812995898078]
我々は,米国オンラインニュース記事に存在する社会バイアスの種類を正確に測定するために,どのような埋め込みアルゴリズムが最適かを検討する。
我々は500万の記事を収集し、予想される社会的偏見に関して心理学文献をレビューする。
我々は、ニュース記事のアルゴリズムでトレーニングされたモデルが、期待される社会的バイアスをどう表すかを比較する。
論文 参考訳(メタデータ) (2022-11-07T15:45:52Z) - The Tail Wagging the Dog: Dataset Construction Biases of Social Bias
Benchmarks [75.58692290694452]
社会的偏見と、データセット構築時に選択された選択から生じる非社会的偏見を比較し、人間の目では識別できないかもしれない。
これらの浅い修正は、様々なモデルにまたがるバイアスの程度に驚くべき影響を及ぼす。
論文 参考訳(メタデータ) (2022-10-18T17:58:39Z) - The SAME score: Improved cosine based bias score for word embeddings [49.75878234192369]
埋め込みにおけるセマンティックバイアスのための新しいバイアススコアであるPetを紹介した。
本研究は,下水道作業における意味バイアスを測定し,社会的バイアスの潜在的な原因を特定することができることを示す。
論文 参考訳(メタデータ) (2022-03-28T09:28:13Z) - Sense Embeddings are also Biased--Evaluating Social Biases in Static and
Contextualised Sense Embeddings [28.062567781403274]
曖昧な言葉の1つの感覚は社会的に偏りがあるが、他の感覚はバイアスのないままである。
我々は、ソーシャルバイアスを意識的な埋め込みで評価するためのベンチマークデータセットを作成する。
感性特異的なバイアス評価尺度を提案する。
論文 参考訳(メタデータ) (2022-03-14T22:08:37Z) - Identification of Biased Terms in News Articles by Comparison of
Outlet-specific Word Embeddings [9.379650501033465]
我々は2つの単語埋め込みモデルを訓練し、1つは左翼のテキストで、もう1つは右翼のニュースメディアで訓練する。
我々の仮説は、単語の埋め込み空間における表現は、偏りのある単語よりも非偏りのある単語に類似している、というものである。
本稿では,単語の埋め込みによって測定されたバイアス語の文脈を詳細に考察する。
論文 参考訳(メタデータ) (2021-12-14T13:23:49Z) - Robustness and Reliability of Gender Bias Assessment in Word Embeddings:
The Role of Base Pairs [23.574442657224008]
単語埋め込みはジェンダーバイアスを示すことが示されており、これを定量化するために様々な方法が提案されている。
これまでの研究では、男女の単語ペアを利用して偏見を測定し、偏見のある類似点を抽出してきた。
これらの性的なペアへの依存には、強い制限があることが示される。
特に、"man is to computer-grammer as woman is to homemaker"というよく知られたアナロジーは、社会的バイアスよりも言葉の類似性によるものである。
論文 参考訳(メタデータ) (2020-10-06T16:09:05Z) - Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by
Ranking Algorithms [68.85295025020942]
本稿では,性別ステレオタイプをサポートする検索エンジンの傾向を定量化するジェンダーステレオタイプ強化(GSR)尺度を提案する。
GSRは、表現上の害を定量化できる情報検索のための、最初の特別に調整された尺度である。
論文 参考訳(メタデータ) (2020-09-02T20:45:04Z) - Towards Debiasing Sentence Representations [109.70181221796469]
Sent-Debiasはバイアスを取り除くのに有効であり、同時に文レベルの下流タスクのパフォーマンスを保っていることを示す。
我々は、より公平なNLPのための広く採用されている文表現から社会的偏見を識別・除去する今後の研究に刺激を与えることを期待している。
論文 参考訳(メタデータ) (2020-07-16T04:22:30Z) - REVISE: A Tool for Measuring and Mitigating Bias in Visual Datasets [64.76453161039973]
REVISE(Revealing VIsual biaSEs)は、視覚的データセットの調査を支援するツールである。
1)オブジェクトベース,(2)個人ベース,(3)地理ベースという3つの次元に沿った潜在的なバイアスを呈示する。
論文 参考訳(メタデータ) (2020-04-16T23:54:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。