論文の概要: Politeness Stereotypes and Attack Vectors: Gender Stereotypes in
Japanese and Korean Language Models
- arxiv url: http://arxiv.org/abs/2306.09752v1
- Date: Fri, 16 Jun 2023 10:36:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-19 14:09:03.399593
- Title: Politeness Stereotypes and Attack Vectors: Gender Stereotypes in
Japanese and Korean Language Models
- Title(参考訳): ポリテネスステレオタイプと攻撃ベクトル:日本語と韓国語モデルにおけるジェンダーステレオタイプ
- Authors: Victor Steinborn and Antonis Maronikolakis and Hinrich Sch\"utze
- Abstract要約: 本研究では,日本語モデルと韓国語モデルにおいて,丁寧度レベルに関連する文法的性別バイアスがどのように現れるかを検討する。
口頭弁論は女性の文法的ジェンダーを最も表すが, 失礼な言論とフォーマルな言論は男性文法的ジェンダーを最も表す。
サイバーいじめ検出モデルにおいて、丁寧度レベルが性別偏差のアタックベクターであることが判明した。
- 参考スコア(独自算出の注目度): 1.5039745292757671
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In efforts to keep up with the rapid progress and use of large language
models, gender bias research is becoming more prevalent in NLP. Non-English
bias research, however, is still in its infancy with most work focusing on
English. In our work, we study how grammatical gender bias relating to
politeness levels manifests in Japanese and Korean language models. Linguistic
studies in these languages have identified a connection between gender bias and
politeness levels, however it is not yet known if language models reproduce
these biases. We analyze relative prediction probabilities of the male and
female grammatical genders using templates and find that informal polite speech
is most indicative of the female grammatical gender, while rude and formal
speech is most indicative of the male grammatical gender. Further, we find
politeness levels to be an attack vector for allocational gender bias in
cyberbullying detection models. Cyberbullies can evade detection through simple
techniques abusing politeness levels. We introduce an attack dataset to (i)
identify representational gender bias across politeness levels, (ii)
demonstrate how gender biases can be abused to bypass cyberbullying detection
models and (iii) show that allocational biases can be mitigated via training on
our proposed dataset. Through our findings we highlight the importance of bias
research moving beyond its current English-centrism.
- Abstract(参考訳): 大規模言語モデルの急速な進歩と利用に追従するため、NLPではジェンダーバイアス研究が一般的になりつつある。
しかし、非英語バイアス研究はまだ初期段階であり、ほとんどの研究は英語に焦点を当てている。
本研究では,日本語モデルと韓国語モデルにおいて,丁寧度に関する文法的性別バイアスがどのように現れるかを検討した。
これらの言語の言語学的研究は、性別バイアスと丁寧さレベルとの関係を特定しているが、言語モデルがこれらのバイアスを再現するかどうかはまだ分かっていない。
テンプレートを用いて男女の文法的ジェンダーの相対的予測確率を解析し,男性文法的ジェンダーが最も顕著であるのに対し,男性文法的ジェンダーは礼儀正しい言葉が最も顕著であることを示す。
さらに,サイバーいじめ検出モデルにおける性別偏差に対する攻撃ベクトルとして,丁寧さレベルを見出した。
サイバーバブルは、丁寧なレベルを悪用する単純な手法によって検出を回避できる。
攻撃データセットを紹介します
(i)礼儀正しいレベルにわたって表象性バイアスを識別する。
(ii) サイバーいじめ検出モデルを回避するためにジェンダーバイアスがいかに悪用されるかを示し、
(iii)提案するデータセット上でのトレーニングにより,割当バイアスを軽減できることを示す。
本研究は, 偏見研究の重要性を, 現在の英語中心主義を超えて強調する。
関連論文リスト
- Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - A Multilingual Perspective on Probing Gender Bias [0.0]
ジェンダーバイアスは、性別に基づいて個人を標的とする体系的なネガティブな治療の一形態である。
この論文は、ジェンダーバイアスが言語および言語技術を通してどのように表現されるかというニュアンスについて考察する。
論文 参考訳(メタデータ) (2024-03-15T21:35:21Z) - Multilingual Text-to-Image Generation Magnifies Gender Stereotypes and Prompt Engineering May Not Help You [64.74707085021858]
多言語モデルは、モノリンガルモデルと同様に、有意な性別バイアスに悩まされていることを示す。
多言語モデルにおけるジェンダーバイアスの研究を促進するための新しいベンチマークMAGBIGを提案する。
以上の結果から,モデルが強い性バイアスを示すだけでなく,言語によって異なる行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2024-01-29T12:02:28Z) - Will the Prince Get True Love's Kiss? On the Model Sensitivity to Gender
Perturbation over Fairytale Texts [87.62403265382734]
近年の研究では、伝統的な妖精は有害な性バイアスを伴っていることが示されている。
本研究は,ジェンダーの摂動に対する頑健さを評価することによって,言語モデルの学習バイアスを評価することを目的とする。
論文 参考訳(メタデータ) (2023-10-16T22:25:09Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Efficient Gender Debiasing of Pre-trained Indic Language Models [0.0]
言語モデルが事前訓練されたデータに存在する性別バイアスは、これらのモデルを使用するシステムに反映される。
本稿では,ヒンディー語モデルにおける職業に関する性別バイアスを測定した。
以上の結果から,提案手法の適応後のバイアスが低減されることが示唆された。
論文 参考訳(メタデータ) (2022-09-08T09:15:58Z) - Don't Forget About Pronouns: Removing Gender Bias in Language Models
Without Losing Factual Gender Information [4.391102490444539]
英語のテキストでは、ジェンダー情報とジェンダーバイアスの2つのタイプに焦点を当てている。
ジェンダーシグナルを保存しながら表現のステレオタイプバイアスを小さくすることを目的としている。
論文 参考訳(メタデータ) (2022-06-21T21:38:25Z) - Quantifying Gender Bias Towards Politicians in Cross-Lingual Language
Models [104.41668491794974]
代名詞として政治家の名前を取り巻く言語モデルによって生成される形容詞と動詞の用法を定量化する。
死者や指定された言葉が男女の政治家と関連しているのに対し、美人や離婚といった特定の言葉が主に女性政治家に関係していることが判明した。
論文 参考訳(メタデータ) (2021-04-15T15:03:26Z) - Type B Reflexivization as an Unambiguous Testbed for Multilingual
Multi-Task Gender Bias [5.239305978984572]
我々は,B型回帰型言語の場合,性別バイアスを検出するためにマルチタスクチャレンジデータセットを構築することができることを示した。
これらの言語では「医者がマスクを取り除いた」という直訳は中音読みと不一致読みのあいまいさではない。
4つの言語と4つのNLPタスクにまたがる多言語・マルチタスク課題データセットを提案する。
論文 参考訳(メタデータ) (2020-09-24T23:47:18Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。