論文の概要: Multilingual Holistic Bias: Extending Descriptors and Patterns to Unveil
Demographic Biases in Languages at Scale
- arxiv url: http://arxiv.org/abs/2305.13198v1
- Date: Mon, 22 May 2023 16:29:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 14:27:42.742651
- Title: Multilingual Holistic Bias: Extending Descriptors and Patterns to Unveil
Demographic Biases in Languages at Scale
- Title(参考訳): 多言語ホリスティックバイアス:大規模言語におけるデクリプタとパターンの復号化
- Authors: Marta R. Costa-juss\`a, Pierre Andrews, Eric Smith, Prangthip
Hansanti, Christophe Ropers, Elahe Kalbassi, Cynthia Gao, Daniel Licht,
Carleigh Wood
- Abstract要約: この拡張は、20,459の文からなる。
我々のベンチマークは、人口動態の不均衡を明らかにすることを目的としており、それらに対する緩和を定量化するためのツールである。
- 参考スコア(独自算出の注目度): 0.21079694661943604
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We introduce a multilingual extension of the HOLISTICBIAS dataset, the
largest English template-based taxonomy of textual people references:
MULTILINGUALHOLISTICBIAS. This extension consists of 20,459 sentences in 50
languages distributed across all 13 demographic axes. Source sentences are
built from combinations of 118 demographic descriptors and three patterns,
excluding nonsensical combinations. Multilingual translations include
alternatives for gendered languages that cover gendered translations when there
is ambiguity in English. Our benchmark is intended to uncover demographic
imbalances and be the tool to quantify mitigations towards them.
Our initial findings show that translation quality for EN-to-XX translations
is an average of 8 spBLEU better when evaluating with the masculine human
reference compared to feminine. In the opposite direction, XX-to-EN, we compare
the robustness of the model when the source input only differs in gender
(masculine or feminine) and masculine translations are an average of almost 4
spBLEU better than feminine. When embedding sentences to a joint multilingual
sentence representations space, we find that for most languages masculine
translations are significantly closer to the English neutral sentences when
embedded.
- Abstract(参考訳): 本稿では,英語のテンプレートをベースとする文人参照の分類法である多言語比較データセットの多言語拡張について紹介する。
この拡張は、13種類の軸に50の言語で20,459の文からなる。
ソース文は、118の人口統計学的記述子と3つのパターンの組み合わせで作られており、非意味的組み合わせは除く。
多言語翻訳には、英語に曖昧さがある場合、性別付き翻訳をカバーする性別付き言語に代わるものが含まれる。
我々のベンチマークは人口動態の不均衡を明らかにすることを目的としており、それらに対する緩和を定量化するツールである。
初回報告では,女性に比べて男性に比較して,EN-to-XX翻訳の翻訳品質が平均8 spBLEU であることがわかった。
反対の方向、XX-to-ENでは、ソース入力が性別(男性または女性)でのみ異なる場合と、男性翻訳が女性よりも平均4spBLEU良い場合のモデルの頑健さを比較する。
統合多言語文表現空間に文を埋め込むと、ほとんどの言語では男性翻訳は埋め込み時の英語中立文にかなり近いことが分かる。
関連論文リスト
- The Lou Dataset -- Exploring the Impact of Gender-Fair Language in German Text Classification [57.06913662622832]
ジェンダーフェア言語は、すべての性別に対処したり、中立形を使用することによって包摂性を促進する。
ジェンダーフェア言語はラベルを反転させ、確実性を減らし、注意パターンを変化させることで予測に大きな影響を及ぼす。
ドイツ語のテキスト分類への影響について最初の知見を提供する一方で、他の言語にもその知見が当てはまる可能性が高い。
論文 参考訳(メタデータ) (2024-09-26T15:08:17Z) - Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - Towards Massive Multilingual Holistic Bias [9.44611286329108]
我々は,MaSSIVE MultilingUal HOLISTICBIASデータセットから,最初の8言語を提示する。
本稿では,MMHB文を言語範囲とサイズの両方で拡張するための自動構築手法を提案する。
論文 参考訳(メタデータ) (2024-06-29T16:26:27Z) - GATE X-E : A Challenge Set for Gender-Fair Translations from
Weakly-Gendered Languages [0.0]
我々は、トルコ語、ハンガリー語、フィンランド語、ペルシア語から英語への翻訳からなるGATEコーパスの拡張であるGATE X-Eを紹介する。
このデータセットは、幅広い文の長さと領域を持つ自然文を特徴とし、様々な言語現象に関する翻訳書き直しに挑戦する。
GPT-4で構築した翻訳性書換えソリューションをGATE X-Eを用いて評価する。
論文 参考訳(メタデータ) (2024-02-22T04:36:14Z) - Multilingual Text-to-Image Generation Magnifies Gender Stereotypes and Prompt Engineering May Not Help You [64.74707085021858]
多言語モデルは、モノリンガルモデルと同様に、有意な性別バイアスに悩まされていることを示す。
多言語モデルにおけるジェンダーバイアスの研究を促進するための新しいベンチマークMAGBIGを提案する。
以上の結果から,モデルが強い性バイアスを示すだけでなく,言語によって異なる行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2024-01-29T12:02:28Z) - Evaluating Gender Bias in the Translation of Gender-Neutral Languages
into English [0.0]
我々は、トルコ語、ハンガリー語、フィンランド語、ペルシア語から英語への翻訳からなるGATEコーパスの拡張であるGATE X-Eを紹介する。
このデータセットは、幅広い文の長さと領域を持つ自然文を特徴とし、様々な言語現象に関する翻訳書き直しに挑戦する。
GPT-3.5 Turbo上に構築された英語のジェンダー書き換えソリューションをGATE X-Eを用いて評価する。
論文 参考訳(メタデータ) (2023-11-15T10:25:14Z) - Gender Lost In Translation: How Bridging The Gap Between Languages
Affects Gender Bias in Zero-Shot Multilingual Translation [12.376309678270275]
並列データが利用できない言語間のギャップを埋めることは、多言語NTTの性別バイアスに影響を与える。
本研究では, 言語に依存しない隠蔽表現が, ジェンダーの保存能力に及ぼす影響について検討した。
言語に依存しない表現は、ゼロショットモデルの男性バイアスを緩和し、ブリッジ言語におけるジェンダーインフレクションのレベルが増加し、話者関連性合意に対するより公平なジェンダー保存に関するゼロショット翻訳を超越することがわかった。
論文 参考訳(メタデータ) (2023-05-26T13:51:50Z) - Target-Agnostic Gender-Aware Contrastive Learning for Mitigating Bias in
Multilingual Machine Translation [28.471506840241602]
ジェンダーバイアスは機械翻訳において重要な問題であり、バイアス軽減技術の研究が進行中である。
本稿では,新しいアプローチに基づくバイアス緩和手法を提案する。
Gender-Aware Contrastive Learning, GACLは、文脈性情報を非明示性単語の表現にエンコードする。
論文 参考訳(メタデータ) (2023-05-23T12:53:39Z) - Analyzing Gender Representation in Multilingual Models [59.21915055702203]
実践的なケーススタディとして,ジェンダーの区別の表現に焦点をあてる。
ジェンダーの概念が、異なる言語で共有された部分空間にエンコードされる範囲について検討する。
論文 参考訳(メタデータ) (2022-04-20T00:13:01Z) - Gender Bias in Multilingual Embeddings and Cross-Lingual Transfer [101.58431011820755]
多言語埋め込みにおけるジェンダーバイアスとNLPアプリケーションの伝達学習への影響について検討する。
我々は、バイアス分析のための多言語データセットを作成し、多言語表現におけるバイアスの定量化方法をいくつか提案する。
論文 参考訳(メタデータ) (2020-05-02T04:34:37Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。