論文の概要: Type B Reflexivization as an Unambiguous Testbed for Multilingual
Multi-Task Gender Bias
- arxiv url: http://arxiv.org/abs/2009.11982v2
- Date: Mon, 28 Sep 2020 05:12:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 04:03:52.914687
- Title: Type B Reflexivization as an Unambiguous Testbed for Multilingual
Multi-Task Gender Bias
- Title(参考訳): 多言語マルチタスクジェンダーバイアスのための曖昧なテストベッドとしてのB型回帰
- Authors: Ana Valeria Gonzalez, Maria Barrett, Rasmus Hvingelby, Kellie Webster,
Anders S{\o}gaard
- Abstract要約: 我々は,B型回帰型言語の場合,性別バイアスを検出するためにマルチタスクチャレンジデータセットを構築することができることを示した。
これらの言語では「医者がマスクを取り除いた」という直訳は中音読みと不一致読みのあいまいさではない。
4つの言語と4つのNLPタスクにまたがる多言語・マルチタスク課題データセットを提案する。
- 参考スコア(独自算出の注目度): 5.239305978984572
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The one-sided focus on English in previous studies of gender bias in NLP
misses out on opportunities in other languages: English challenge datasets such
as GAP and WinoGender highlight model preferences that are "hallucinatory",
e.g., disambiguating gender-ambiguous occurrences of 'doctor' as male doctors.
We show that for languages with type B reflexivization, e.g., Swedish and
Russian, we can construct multi-task challenge datasets for detecting gender
bias that lead to unambiguously wrong model predictions: In these languages,
the direct translation of 'the doctor removed his mask' is not ambiguous
between a coreferential reading and a disjoint reading. Instead, the
coreferential reading requires a non-gendered pronoun, and the gendered,
possessive pronouns are anti-reflexive. We present a multilingual, multi-task
challenge dataset, which spans four languages and four NLP tasks and focuses
only on this phenomenon. We find evidence for gender bias across all
task-language combinations and correlate model bias with national labor market
statistics.
- Abstract(参考訳): GAPやWinoGenderのような英語の挑戦データセットは、男性医師としての「ドクター」の性差を曖昧にしているような「幻覚的」なモデル嗜好を強調している。
スウェーデン語やロシア語などのB型反射性のある言語では、不明瞭に間違ったモデル予測につながる性別バイアスを検出するためのマルチタスクチャレンジデータセットを構築することができる。
代わりに、中性代名詞は非性代名詞を必要とし、性代名詞は反反射的である。
我々は4つの言語と4つのNLPタスクにまたがる多言語・マルチタスク課題データセットを提案し、この現象にのみ焦点をあてる。
我々は、すべてのタスク言語の組み合わせにおけるジェンダーバイアスの証拠を見つけ、モデルバイアスと全国労働市場の統計を関連付ける。
関連論文リスト
- Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - What an Elegant Bridge: Multilingual LLMs are Biased Similarly in Different Languages [51.0349882045866]
本稿では,Large Language Models (LLMs) の文法的ジェンダーのレンズによるバイアスについて検討する。
様々な言語における形容詞を持つ名詞を記述するためのモデルを提案し,特に文法性のある言語に焦点を当てた。
単純な分類器は、偶然以上の名詞の性別を予測できるだけでなく、言語間の移動可能性も示せる。
論文 参考訳(メタデータ) (2024-07-12T22:10:16Z) - GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - What is Your Favorite Gender, MLM? Gender Bias Evaluation in Multilingual Masked Language Models [8.618945530676614]
本稿では,中国語,英語,ドイツ語,ポルトガル語,スペイン語の5言語から,多言語辞書の性別バイアスを推定する手法を提案する。
ジェンダーバイアスのより堅牢な分析のための文対を生成するために,新しいモデルに基づく手法を提案する。
以上の結果から,複数の評価指標をベストプラクティスとして用いた大規模データセットでは,性別バイアスを研究すべきであることが示唆された。
論文 参考訳(メタデータ) (2024-04-09T21:12:08Z) - Gender Bias in Large Language Models across Multiple Languages [10.068466432117113]
異なる言語で生成される大言語モデル(LLM)の性別バイアスについて検討する。
1) 性別関連文脈から記述的単語を選択する際の性別バイアス。
2) 性別関連代名詞を選択する際の性別バイアスは, 記述語を付与する。
論文 参考訳(メタデータ) (2024-03-01T04:47:16Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Politeness Stereotypes and Attack Vectors: Gender Stereotypes in
Japanese and Korean Language Models [1.5039745292757671]
本研究では,日本語モデルと韓国語モデルにおいて,丁寧度レベルに関連する文法的性別バイアスがどのように現れるかを検討する。
口頭弁論は女性の文法的ジェンダーを最も表すが, 失礼な言論とフォーマルな言論は男性文法的ジェンダーを最も表す。
サイバーいじめ検出モデルにおいて、丁寧度レベルが性別偏差のアタックベクターであることが判明した。
論文 参考訳(メタデータ) (2023-06-16T10:36:18Z) - Gender Lost In Translation: How Bridging The Gap Between Languages
Affects Gender Bias in Zero-Shot Multilingual Translation [12.376309678270275]
並列データが利用できない言語間のギャップを埋めることは、多言語NTTの性別バイアスに影響を与える。
本研究では, 言語に依存しない隠蔽表現が, ジェンダーの保存能力に及ぼす影響について検討した。
言語に依存しない表現は、ゼロショットモデルの男性バイアスを緩和し、ブリッジ言語におけるジェンダーインフレクションのレベルが増加し、話者関連性合意に対するより公平なジェンダー保存に関するゼロショット翻訳を超越することがわかった。
論文 参考訳(メタデータ) (2023-05-26T13:51:50Z) - Target-Agnostic Gender-Aware Contrastive Learning for Mitigating Bias in
Multilingual Machine Translation [28.471506840241602]
ジェンダーバイアスは機械翻訳において重要な問題であり、バイアス軽減技術の研究が進行中である。
本稿では,新しいアプローチに基づくバイアス緩和手法を提案する。
Gender-Aware Contrastive Learning, GACLは、文脈性情報を非明示性単語の表現にエンコードする。
論文 参考訳(メタデータ) (2023-05-23T12:53:39Z) - Gender Bias in Multilingual Embeddings and Cross-Lingual Transfer [101.58431011820755]
多言語埋め込みにおけるジェンダーバイアスとNLPアプリケーションの伝達学習への影響について検討する。
我々は、バイアス分析のための多言語データセットを作成し、多言語表現におけるバイアスの定量化方法をいくつか提案する。
論文 参考訳(メタデータ) (2020-05-02T04:34:37Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。