論文の概要: Probing Gender Bias in Multilingual LLMs: A Case Study of Stereotypes in Persian
- arxiv url: http://arxiv.org/abs/2509.20168v1
- Date: Wed, 24 Sep 2025 14:34:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.848796
- Title: Probing Gender Bias in Multilingual LLMs: A Case Study of Stereotypes in Persian
- Title(参考訳): 多言語LDMにおける性バイアスの探索 : ペルシャ語におけるステレオタイプを事例として
- Authors: Ghazal Kalhor, Behnam Bahrak,
- Abstract要約: マルチ言語大言語モデル(LLM)におけるジェンダーステレオタイプを明らかにするテンプレートベースの探索手法を提案する。
我々は,異なる言語的特徴を持つ低リソース言語ペルシャに焦点をあてた4つの顕著なモデルを評価する。
以上の結果から,すべてのモデルに男女のステレオタイプが示され,ペルシャ語では全ドメインで英語よりも大きな差異が認められた。
本研究は、包括的NLPプラクティスの必要性を強調し、他の低リソース言語におけるバイアスを評価するためのフレームワークを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multilingual Large Language Models (LLMs) are increasingly used worldwide, making it essential to ensure they are free from gender bias to prevent representational harm. While prior studies have examined such biases in high-resource languages, low-resource languages remain understudied. In this paper, we propose a template-based probing methodology, validated against real-world data, to uncover gender stereotypes in LLMs. As part of this framework, we introduce the Domain-Specific Gender Skew Index (DS-GSI), a metric that quantifies deviations from gender parity. We evaluate four prominent models, GPT-4o mini, DeepSeek R1, Gemini 2.0 Flash, and Qwen QwQ 32B, across four semantic domains, focusing on Persian, a low-resource language with distinct linguistic features. Our results show that all models exhibit gender stereotypes, with greater disparities in Persian than in English across all domains. Among these, sports reflect the most rigid gender biases. This study underscores the need for inclusive NLP practices and provides a framework for assessing bias in other low-resource languages.
- Abstract(参考訳): 多言語大言語モデル (LLMs) は世界中でますます普及しており、表現的害を防ぐために性別バイアスから解放されることが不可欠である。
以前の研究では、高リソース言語におけるそのようなバイアスについて検討されてきたが、低リソース言語はまだ検討されていない。
本稿では,LLMにおけるジェンダーステレオタイプを明らかにするために,実世界のデータに対して検証されたテンプレートベースの探索手法を提案する。
このフレームワークの一部として、性別のパリティから逸脱を定量化する指標であるDomain-Specific Gender Skew Index (DS-GSI)を紹介する。
GPT-4o mini、DeepSeek R1、Gemini 2.0 Flash、Qwen QwQ 32Bの4つのセマンティックドメインにおいて、異なる言語的特徴を持つ低リソース言語であるペルシャに焦点をあてて評価を行った。
以上の結果から,すべてのモデルに男女のステレオタイプが示され,ペルシャ語では全ドメインで英語よりも大きな差異が認められた。
これらのうち、スポーツは最も厳格な性別バイアスを反映している。
本研究は、包括的NLPプラクティスの必要性を強調し、他の低リソース言語におけるバイアスを評価するためのフレームワークを提供する。
関連論文リスト
- Exploring Gender Bias in Large Language Models: An In-depth Dive into the German Language [21.87606488958834]
大規模言語モデル(LLM)における性別バイアス評価のためのドイツの5つのデータセットを提案する。
データセットは、ジェンダーバイアスというよく確立された概念に基づいており、複数の方法論を通してアクセス可能である。
8種類の多言語 LLM モデルで報告された本研究は,ドイツ語の性差にかかわる独特な課題を明らかにした。
論文 参考訳(メタデータ) (2025-07-22T13:09:41Z) - EuroGEST: Investigating gender stereotypes in multilingual language models [58.871032460235575]
EuroGESTは、英語と29のヨーロッパ言語にまたがるLLMにおける性別ステレオタイプ推論を計測するためのデータセットである。
すべての言語で最強のステレオタイプは、女性が「美」、「共感」、そして「否定」であり、男性は「リーダー」、「強く、タフ」、そして「職業的」であることを示している。
論文 参考訳(メタデータ) (2025-06-04T11:58:18Z) - Colombian Waitresses y Jueces canadienses: Gender and Country Biases in Occupation Recommendations from LLMs [15.783346695504344]
本研究は,多言語交叉国とジェンダーバイアスに関する最初の研究である。
25の国と4つの代名詞セットを用いて、英語、スペイン語、ドイツ語でプロンプトのベンチマークを構築した。
モデルが性別や国ごとに同性を示す場合であっても、国と性別の両方に基づく交叉的職業バイアスが持続することがわかった。
論文 参考訳(メタデータ) (2025-05-05T08:40:51Z) - GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - Leveraging Large Language Models to Measure Gender Representation Bias in Gendered Language Corpora [9.959039325564744]
大規模言語モデル(LLM)は、しばしば、トレーニングデータに埋め込まれた社会的バイアスを継承し、増幅する。
性バイアスとは、特定の役割や特性と特定の性別の関連性である。
ジェンダー表現バイアスは、性別の異なる個人への参照の不平等な頻度である。
論文 参考訳(メタデータ) (2024-06-19T16:30:58Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。