論文の概要: Discovering and Interpreting Biased Concepts in Online Communities
- arxiv url: http://arxiv.org/abs/2010.14448v2
- Date: Mon, 24 Jan 2022 23:37:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 11:12:18.244899
- Title: Discovering and Interpreting Biased Concepts in Online Communities
- Title(参考訳): オンラインコミュニティにおけるバイアス概念の発見と解釈
- Authors: Xavier Ferrer-Aran, Tom van Nuenen, Natalia Criado, Jose M. Such
- Abstract要約: 言語は暗黙の人間のバイアスを持ち、反射とそれらを持ち歩くステレオタイプの永続の両方として機能する。
単語埋め込みのようなMLベースのNLP手法は、そのような言語バイアスを顕著な精度で学習することが示されている。
本稿では、単語埋め込みに符号化されたバイアス概念を自動的に検出し、解釈する従来のデータ駆動手法を改善し、拡張し、評価する。
- 参考スコア(独自算出の注目度): 5.670038395203354
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Language carries implicit human biases, functioning both as a reflection and
a perpetuation of stereotypes that people carry with them. Recently, ML-based
NLP methods such as word embeddings have been shown to learn such language
biases with striking accuracy. This capability of word embeddings has been
successfully exploited as a tool to quantify and study human biases. However,
previous studies only consider a predefined set of biased concepts to attest
(e.g., whether gender is more or less associated with particular jobs), or just
discover biased words without helping to understand their meaning at the
conceptual level. As such, these approaches can be either unable to find biased
concepts that have not been defined in advance, or the biases they find are
difficult to interpret and study. This could make existing approaches
unsuitable to discover and interpret biases in online communities, as such
communities may carry different biases than those in mainstream culture. This
paper improves upon, extends, and evaluates our previous data-driven method to
automatically discover and help interpret biased concepts encoded in word
embeddings. We apply this approach to study the biased concepts present in the
language used in online communities and experimentally show the validity and
stability of our method
- Abstract(参考訳): 言語は暗黙の人間のバイアスを持ち、人々が持ち歩くステレオタイプの反射と持続の両方として機能する。
近年,単語埋め込みなどのMLベースのNLP手法は,そのような言語バイアスを顕著な精度で学習することが示されている。
単語埋め込みのこの能力は、人間のバイアスを定量化し研究するためのツールとしてうまく利用されてきた。
しかし、以前の研究では、事前に定義された偏りのある概念(例えば、性別が特定の仕事と関係しているかどうか)しか考慮していなかったり、概念レベルでの意味を理解せずに偏りのある単語を発見したりした。
このように、これらのアプローチは、事前に定義されていないバイアスされた概念を見つけることができず、または彼らが見出したバイアスを解釈し研究することが困難である。
これにより、オンラインコミュニティにおけるバイアスの発見と解釈に、既存のアプローチが不適当になる可能性がある。
本稿では,従来のデータ駆動型手法の改良,拡張,評価を行い,単語埋め込みで符号化されたバイアス概念の自動検出と解釈を支援する。
このアプローチを,オンラインコミュニティで使用されている言語におけるバイアス概念の研究に適用し,提案手法の有効性と安定性を実験的に示す。
関連論文リスト
- Mitigating Gender Bias in Contextual Word Embeddings [1.208453901299241]
本稿では,コンテキスト埋め込みにおける性別バイアスを大幅に軽減する,リップスティック(マスケ・ランゲージ・モデリング)の新たな目的関数を提案する。
また, 静的な埋め込みを嫌悪する新しい手法を提案し, 広範囲な解析と実験による実証実験を行った。
論文 参考訳(メタデータ) (2024-11-18T21:36:44Z) - Semantic Properties of cosine based bias scores for word embeddings [48.0753688775574]
本稿では,バイアスの定量化に有効なバイアススコアの要件を提案する。
これらの要件について,コサインに基づくスコアを文献から分析する。
これらの結果は、バイアススコアの制限がアプリケーションケースに影響を及ぼすことを示す実験で裏付けられている。
論文 参考訳(メタデータ) (2024-01-27T20:31:10Z) - An Analysis of Social Biases Present in BERT Variants Across Multiple
Languages [0.0]
多様な言語からなる単言語BERTモデルにおけるバイアスについて検討する。
文の擬似類似度に基づいて,任意のバイアスを測定するテンプレートベースの手法を提案する。
偏見探索の現在の手法は言語に依存していると結論付けている。
論文 参考訳(メタデータ) (2022-11-25T23:38:08Z) - The SAME score: Improved cosine based bias score for word embeddings [49.75878234192369]
埋め込みにおけるセマンティックバイアスのための新しいバイアススコアであるPetを紹介した。
本研究は,下水道作業における意味バイアスを測定し,社会的バイアスの潜在的な原因を特定することができることを示す。
論文 参考訳(メタデータ) (2022-03-28T09:28:13Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z) - Robustness and Reliability of Gender Bias Assessment in Word Embeddings:
The Role of Base Pairs [23.574442657224008]
単語埋め込みはジェンダーバイアスを示すことが示されており、これを定量化するために様々な方法が提案されている。
これまでの研究では、男女の単語ペアを利用して偏見を測定し、偏見のある類似点を抽出してきた。
これらの性的なペアへの依存には、強い制限があることが示される。
特に、"man is to computer-grammer as woman is to homemaker"というよく知られたアナロジーは、社会的バイアスよりも言葉の類似性によるものである。
論文 参考訳(メタデータ) (2020-10-06T16:09:05Z) - Discovering and Categorising Language Biases in Reddit [5.670038395203354]
本稿では,Reddit上のオンライン談話コミュニティの語彙に符号化された言語バイアスを自動的に検出するデータ駆動型手法を提案する。
単語埋め込みを用いて、テキストを高次元の高密度ベクトルに変換し、単語間の意味的関係をキャプチャする。
さまざまなRedditコミュニティにおいて、ジェンダーバイアス、宗教バイアス、民族バイアスの発見に成功しました。
論文 参考訳(メタデータ) (2020-08-06T16:42:10Z) - Towards Debiasing Sentence Representations [109.70181221796469]
Sent-Debiasはバイアスを取り除くのに有効であり、同時に文レベルの下流タスクのパフォーマンスを保っていることを示す。
我々は、より公平なNLPのための広く採用されている文表現から社会的偏見を識別・除去する今後の研究に刺激を与えることを期待している。
論文 参考訳(メタデータ) (2020-07-16T04:22:30Z) - Double-Hard Debias: Tailoring Word Embeddings for Gender Bias Mitigation [94.98656228690233]
本稿では,性別サブスペースの推測と削除に先立って,コーパス正規性に対する単語埋め込みを浄化する手法を提案する。
本手法は,事前学習した単語埋め込みの分布的意味を保ちつつ,性別バイアスを従来の手法よりもはるかに大きい程度に低減する。
論文 参考訳(メタデータ) (2020-05-03T02:33:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。