論文の概要: Cross-Lingual Probing and Community-Grounded Analysis of Gender Bias in Low-Resource Bengali
- arxiv url: http://arxiv.org/abs/2601.17764v1
- Date: Sun, 25 Jan 2026 09:38:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.323608
- Title: Cross-Lingual Probing and Community-Grounded Analysis of Gender Bias in Low-Resource Bengali
- Title(参考訳): 低資源ベンガルにおけるジェンダーバイアスの言語横断的調査と地域包括分析
- Authors: Md Asgor Hossain Reaj, Rajan Das Gupta, Jui Saha Pritha, Abdullah Al Noman, Abir Ahmed, Golam Md Mohiuddin, Tze Hui Liew,
- Abstract要約: 本研究は,ベンガルにおけるジェンダーバイアスの特徴と大きさを検討することを目的とする。
我々は、語彙に基づくマイニング、計算分類モデル、翻訳に基づく比較分析、GPTに基づくバイアス生成など、性別バイアスのある発話を抽出するために、いくつかの手法を用いる。
その結果、ベンガル語におけるジェンダーバイアスは、より局所的で文脈に敏感な方法論を必要とする、英語と異なる特徴を示すことが明らかとなった。
- 参考スコア(独自算出の注目度): 0.058633603884542605
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have achieved significant success in recent years; yet, issues of intrinsic gender bias persist, especially in non-English languages. Although current research mostly emphasizes English, the linguistic and cultural biases inherent in Global South languages, like Bengali, are little examined. This research seeks to examine the characteristics and magnitude of gender bias in Bengali, evaluating the efficacy of current approaches in identifying and alleviating bias. We use several methods to extract gender-biased utterances, including lexicon-based mining, computational classification models, translation-based comparison analysis, and GPT-based bias creation. Our research indicates that the straight application of English-centric bias detection frameworks to Bengali is severely constrained by language disparities and socio-cultural factors that impact implicit biases. To tackle these difficulties, we executed two field investigations inside rural and low-income areas, gathering authentic insights on gender bias. The findings demonstrate that gender bias in Bengali presents distinct characteristics relative to English, requiring a more localized and context-sensitive methodology. Additionally, our research emphasizes the need of integrating community-driven research approaches to identify culturally relevant biases often neglected by automated systems. Our research enhances the ongoing discussion around gender bias in AI by illustrating the need to create linguistic tools specifically designed for underrepresented languages. This study establishes a foundation for further investigations into bias reduction in Bengali and other Indic languages, promoting the development of more inclusive and fair NLP systems.
- Abstract(参考訳): 大規模言語モデル(LLM)は近年大きな成功を収めているが、本質的な性バイアスの問題は特に非英語言語では持続している。
現在の研究は主に英語を強調しているが、ベンガル語のようなグローバル・サウス言語に固有の言語的・文化的バイアスはほとんど検討されていない。
本研究は,ベンガルにおけるジェンダーバイアスの特徴と大きさについて検討し,偏見の特定と緩和における現在のアプローチの有効性について検討する。
我々は、語彙に基づくマイニング、計算分類モデル、翻訳に基づく比較分析、GPTに基づくバイアス生成など、性別バイアスのある発話を抽出するために、いくつかの手法を用いる。
本研究は,ベンガル語に対する英語中心の偏見検出フレームワークの直接適用が,暗黙の偏見に影響を与える言語格差や社会文化的要因によって厳しく制約されていることを示唆している。
これらの課題に対処するため、農村部と低所得地域の2つのフィールド調査を行い、性別バイアスに関する真正な知見を収集した。
その結果、ベンガル語におけるジェンダーバイアスは、より局所的で文脈に敏感な方法論を必要とする、英語と異なる特徴を示すことが明らかとなった。
さらに,我々の研究は,自動システムによって無視される文化的に関連するバイアスを識別するために,コミュニティ主導の研究アプローチを統合することの必要性を強調している。
我々の研究は、未表現言語に特化して設計された言語ツールを作成する必要性を浮き彫りにして、AIにおけるジェンダーバイアスに関する議論をさらに進めている。
本研究は,ベンガル語および他のインド語言語のバイアス低減に関するさらなる研究の基盤を確立し,より包括的で公平なNLPシステムの開発を促進する。
関連論文リスト
- Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - Leveraging Large Language Models to Measure Gender Representation Bias in Gendered Language Corpora [9.959039325564744]
大規模言語モデル(LLM)は、しばしば、トレーニングデータに埋め込まれた社会的バイアスを継承し、増幅する。
性バイアスとは、特定の役割や特性と特定の性別の関連性である。
ジェンダー表現バイアスは、性別の異なる個人への参照の不平等な頻度である。
論文 参考訳(メタデータ) (2024-06-19T16:30:58Z) - Akal Badi ya Bias: An Exploratory Study of Gender Bias in Hindi Language Technology [22.458957168929487]
ジェンダーバイアスの測定と緩和に関する既存の研究は、主に英語に焦点を当てている。
本稿では,ヒンディー語におけるジェンダーバイアスの微妙な風景を掘り下げる最初の総合的研究について述べる。
論文 参考訳(メタデータ) (2024-05-10T09:26:12Z) - Quantifying the Dialect Gap and its Correlates Across Languages [69.18461982439031]
この研究は、明らかな相違を明らかにし、マインドフルなデータ収集を通じてそれらに対処する可能性のある経路を特定することによって、方言NLPの分野を強化する基盤となる。
論文 参考訳(メタデータ) (2023-10-23T17:42:01Z) - On Evaluating and Mitigating Gender Biases in Multilingual Settings [5.248564173595024]
複数言語設定におけるバイアスの評価と緩和に関する課題について検討する。
まず,事前学習したマスキング言語モデルにおいて,性別バイアスを評価するベンチマークを作成する。
我々は、様々なデバイアス法を英語以上に拡張し、SOTAの大規模多言語モデルの有効性を評価する。
論文 参考訳(メタデータ) (2023-07-04T06:23:04Z) - Comparing Biases and the Impact of Multilingual Training across Multiple
Languages [70.84047257764405]
ダウンストリーム感情分析タスクにおいて,イタリア語,中国語,英語,ヘブライ語,スペイン語のバイアス分析を行う。
我々は、既存の感情バイアスのテンプレートを、人種、宗教、国籍、性別の4つの属性で、イタリア語、中国語、ヘブライ語、スペイン語に適応させる。
以上の結果から,各言語の文化に支配的な集団の嗜好など,バイアス表現の類似性を明らかにした。
論文 参考訳(メタデータ) (2023-05-18T18:15:07Z) - An Analysis of Social Biases Present in BERT Variants Across Multiple
Languages [0.0]
多様な言語からなる単言語BERTモデルにおけるバイアスについて検討する。
文の擬似類似度に基づいて,任意のバイアスを測定するテンプレートベースの手法を提案する。
偏見探索の現在の手法は言語に依存していると結論付けている。
論文 参考訳(メタデータ) (2022-11-25T23:38:08Z) - Quantifying Gender Bias Towards Politicians in Cross-Lingual Language
Models [104.41668491794974]
代名詞として政治家の名前を取り巻く言語モデルによって生成される形容詞と動詞の用法を定量化する。
死者や指定された言葉が男女の政治家と関連しているのに対し、美人や離婚といった特定の言葉が主に女性政治家に関係していることが判明した。
論文 参考訳(メタデータ) (2021-04-15T15:03:26Z) - Gender Bias in Multilingual Embeddings and Cross-Lingual Transfer [101.58431011820755]
多言語埋め込みにおけるジェンダーバイアスとNLPアプリケーションの伝達学習への影響について検討する。
我々は、バイアス分析のための多言語データセットを作成し、多言語表現におけるバイアスの定量化方法をいくつか提案する。
論文 参考訳(メタデータ) (2020-05-02T04:34:37Z) - Towards Controllable Biases in Language Generation [87.89632038677912]
本研究では、特定の人口集団の言及を含む入力プロンプトによって生成されたテキストの社会的バイアスを誘導する手法を開発した。
1 つの人口統計学において負のバイアスを誘発し、もう1 つの人口統計学において正のバイアスを誘導し、2 つのシナリオを分析する。
論文 参考訳(メタデータ) (2020-05-01T08:25:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。