論文の概要: Women Are Beautiful, Men Are Leaders: Gender Stereotypes in Machine
Translation and Language Modeling
- arxiv url: http://arxiv.org/abs/2311.18711v1
- Date: Thu, 30 Nov 2023 17:06:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-01 15:48:24.381526
- Title: Women Are Beautiful, Men Are Leaders: Gender Stereotypes in Machine
Translation and Language Modeling
- Title(参考訳): 女性は美しい、男性はリーダー:機械翻訳と言語モデリングにおけるジェンダーのステレオタイプ
- Authors: Mat\'u\v{s} Pikuliak and Andrea Hrckova and Stefan Oresko and Mari\'an
\v{S}imko
- Abstract要約: GESTは、マスク付きLMと英語-to-X機械翻訳システムにおいて、ジェンダーステレオタイプ推論を測定するための新しいデータセットである。
GESTには、9つのスラヴ語と英語で男女16のステレオタイプに対応するサンプルが含まれている。
- 参考スコア(独自算出の注目度): 0.36868085124383626
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present GEST -- a new dataset for measuring gender-stereotypical reasoning
in masked LMs and English-to-X machine translation systems. GEST contains
samples that are compatible with 9 Slavic languages and English for 16 gender
stereotypes about men and women (e.g., Women are beautiful, Men are leaders).
The definition of said stereotypes was informed by gender experts. We used GEST
to evaluate 11 masked LMs and 4 machine translation systems. We discovered
significant and consistent amounts of stereotypical reasoning in almost all the
evaluated models and languages.
- Abstract(参考訳): GEST - マスク付きLMと英語-to-X機械翻訳システムにおけるジェンダーステレオタイプ推論の新たなデータセットを提案する。
GESTには9つのスラヴ語と英語で男女16のステレオタイプに対応するサンプルが含まれている(例:女性は美しい、男性はリーダー)。
このステレオタイプの定義は、ジェンダーの専門家によって知らされた。
GESTを用いて11個のマスク付きLMと4個の機械翻訳システムを評価した。
ほぼすべての評価されたモデルと言語において,かなりの量のステレオタイプ推論が発見された。
関連論文リスト
- Gender Bias in Large Language Models across Multiple Languages [10.068466432117113]
異なる言語で生成される大言語モデル(LLM)の性別バイアスについて検討する。
1) 性別関連文脈から記述的単語を選択する際の性別バイアス。
2) 性別関連代名詞を選択する際の性別バイアスは, 記述語を付与する。
論文 参考訳(メタデータ) (2024-03-01T04:47:16Z) - Disclosure and Mitigation of Gender Bias in LLMs [64.79319733514266]
大規模言語モデル(LLM)はバイアス応答を生成することができる。
条件生成に基づく間接探索フレームワークを提案する。
LLMにおける明示的・暗黙的な性バイアスを明らかにするための3つの戦略を探求する。
論文 参考訳(メタデータ) (2024-02-17T04:48:55Z) - Probing Explicit and Implicit Gender Bias through LLM Conditional Text
Generation [64.79319733514266]
大規模言語モデル(LLM)はバイアスと有害な応答を生成する。
本研究では,あらかじめ定義されたジェンダーフレーズやステレオタイプを必要としない条件付きテキスト生成機構を提案する。
論文 参考訳(メタデータ) (2023-11-01T05:31:46Z) - Will the Prince Get True Love's Kiss? On the Model Sensitivity to Gender
Perturbation over Fairytale Texts [87.62403265382734]
近年の研究では、伝統的な妖精は有害な性バイアスを伴っていることが示されている。
本研究は,ジェンダーの摂動に対する頑健さを評価することによって,言語モデルの学習バイアスを評価することを目的とする。
論文 参考訳(メタデータ) (2023-10-16T22:25:09Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - MISGENDERED: Limits of Large Language Models in Understanding Pronouns [46.276320374441056]
我々は、英語のジェンダーニュートラル代名詞を正しく活用する能力について、人気言語モデルの評価を行った。
提案するMISGENDEREDは,大言語モデルが好む代名詞を正しく活用する能力を評価するためのフレームワークである。
論文 参考訳(メタデータ) (2023-06-06T18:27:52Z) - Multilingual Holistic Bias: Extending Descriptors and Patterns to Unveil
Demographic Biases in Languages at Scale [0.21079694661943604]
この拡張は、20,459の文からなる。
我々のベンチマークは、人口動態の不均衡を明らかにすることを目的としており、それらに対する緩和を定量化するためのツールである。
論文 参考訳(メタデータ) (2023-05-22T16:29:04Z) - Collecting a Large-Scale Gender Bias Dataset for Coreference Resolution
and Machine Translation [10.542861450223128]
3つのドメインのコーパスにおいて,ステレオタイプおよび非ステレオタイプなジェンダーロール代入を示す文法パターンが発見された。
我々は、コーパスの品質を手動で検証し、様々なコア参照解像度と機械翻訳モデルにおける性別バイアスを評価する。
論文 参考訳(メタデータ) (2021-09-08T18:14:11Z) - Extending Challenge Sets to Uncover Gender Bias in Machine Translation:
Impact of Stereotypical Verbs and Adjectives [0.45687771576879593]
State-of-the-art Machine Translation (MT)システムは、主に人間が生成する大量のテキストコーパスに基づいて訓練されている。
近年の研究では、MTシステムは職業のステレオタイプ翻訳に偏っていることが示されている。
本稿では, ジェンダーバイアスのある形容詞と, ジェンダーバイアスのある動詞を含む文を付加した WiBeMT という課題集合の拡張について述べる。
論文 参考訳(メタデータ) (2021-07-24T11:22:10Z) - Gender Coreference and Bias Evaluation at WMT 2020 [16.814151914000856]
機械翻訳における性差は、素早い性相関に基づいて性差を選択する際に現れる。
我々の研究は、WMTに提出された19以上のシステムにおいて、この現象の最大の証拠を示す。
すべてのシステムは、意味のある文脈情報ではなく、データ内の刺激的な相関を一貫して利用している。
論文 参考訳(メタデータ) (2020-10-12T20:42:21Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。