論文の概要: Mapping the Multilingual Margins: Intersectional Biases of Sentiment
Analysis Systems in English, Spanish, and Arabic
- arxiv url: http://arxiv.org/abs/2204.03558v1
- Date: Thu, 7 Apr 2022 16:33:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-08 18:06:28.896874
- Title: Mapping the Multilingual Margins: Intersectional Biases of Sentiment
Analysis Systems in English, Spanish, and Arabic
- Title(参考訳): 多言語マージンのマッピング:英語、スペイン語、アラビア語における感情分析システムの交叉バイアス
- Authors: Ant\'onio C\^amara, Nina Taneja, Tamjeed Azad, Emily Allaway, Richard
Zemel
- Abstract要約: 本稿では,4つの多言語エクイティ評価コーパス,社会的バイアスを測定するための補足的テストセット,および自然言語処理における一節的および交叉的社会的バイアスを研究するための新しい統計枠組みを紹介する。
我々はこれらのツールを用いて、英語、スペイン語、アラビア語の感情回帰タスクに基づいて訓練された5つのモデルにまたがる性別、人種、民族、および交差する社会的バイアスを測定する。
- 参考スコア(独自算出の注目度): 3.3458760961317635
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As natural language processing systems become more widespread, it is
necessary to address fairness issues in their implementation and deployment to
ensure that their negative impacts on society are understood and minimized.
However, there is limited work that studies fairness using a multilingual and
intersectional framework or on downstream tasks. In this paper, we introduce
four multilingual Equity Evaluation Corpora, supplementary test sets designed
to measure social biases, and a novel statistical framework for studying
unisectional and intersectional social biases in natural language processing.
We use these tools to measure gender, racial, ethnic, and intersectional social
biases across five models trained on emotion regression tasks in English,
Spanish, and Arabic. We find that many systems demonstrate statistically
significant unisectional and intersectional social biases.
- Abstract(参考訳): 自然言語処理システムが普及するにつれて、社会に対するネガティブな影響が理解され、最小限に抑えられるように、実装や展開における公平性の問題に対処する必要がある。
しかし、多言語・交叉型フレームワークや下流タスクを用いた公正性の研究は限られている。
本稿では,4つの多言語エクイティ評価コーパス,社会バイアス測定のための補足的テストセット,自然言語処理における一断面および交叉的社会バイアスの研究のための新しい統計的枠組みを提案する。
これらのツールを使用して、英語、スペイン語、アラビア語の感情回帰タスクに基づいてトレーニングされた5つのモデルにまたがる性別、人種、民族、交叉社会バイアスを測定します。
多くのシステムは統計的に有意な一節的・交叉的社会バイアスを示す。
関連論文リスト
- Quantifying the Dialect Gap and its Correlates Across Languages [69.18461982439031]
この研究は、明らかな相違を明らかにし、マインドフルなデータ収集を通じてそれらに対処する可能性のある経路を特定することによって、方言NLPの分野を強化する基盤となる。
論文 参考訳(メタデータ) (2023-10-23T17:42:01Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Evaluating Biased Attitude Associations of Language Models in an
Intersectional Context [2.891314299138311]
言語モデルは、心理学で文書化された暗黙のバイアスを埋め込んだ大規模コーパスで訓練される。
我々は、年齢、教育、性別、身長、知性、識字性、人種、宗教、性、性的指向、社会階級、体重に関するバイアスを研究する。
言語モデルは、性同一性、社会的階級、性的指向のシグナルに対して最も偏りのある態度を示す。
論文 参考訳(メタデータ) (2023-07-07T03:01:56Z) - On Evaluating and Mitigating Gender Biases in Multilingual Settings [5.248564173595024]
複数言語設定におけるバイアスの評価と緩和に関する課題について検討する。
まず,事前学習したマスキング言語モデルにおいて,性別バイアスを評価するベンチマークを作成する。
我々は、様々なデバイアス法を英語以上に拡張し、SOTAの大規模多言語モデルの有効性を評価する。
論文 参考訳(メタデータ) (2023-07-04T06:23:04Z) - Bias Beyond English: Counterfactual Tests for Bias in Sentiment Analysis
in Four Languages [13.694445396757162]
感性分析システムは、多くの製品や数百の言語で使われている。
性別と人種の偏見は英語のSAシステムではよく研究されているが、他の言語では調査されていない。
ジェンダーと人種・移民の偏見を4言語で評価する対物評価コーパスを構築した。
論文 参考訳(メタデータ) (2023-05-19T13:38:53Z) - Comparing Biases and the Impact of Multilingual Training across Multiple
Languages [70.84047257764405]
ダウンストリーム感情分析タスクにおいて,イタリア語,中国語,英語,ヘブライ語,スペイン語のバイアス分析を行う。
我々は、既存の感情バイアスのテンプレートを、人種、宗教、国籍、性別の4つの属性で、イタリア語、中国語、ヘブライ語、スペイン語に適応させる。
以上の結果から,各言語の文化に支配的な集団の嗜好など,バイアス表現の類似性を明らかにした。
論文 参考訳(メタデータ) (2023-05-18T18:15:07Z) - Fairness in Language Models Beyond English: Gaps and Challenges [11.62418844341466]
本稿では,多言語・非英語の文脈における公平性について調査する。
これは、現在の研究の欠点と、英語向けに設計された手法が直面する困難を強調している。
論文 参考訳(メタデータ) (2023-02-24T11:25:50Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z) - Towards Debiasing Sentence Representations [109.70181221796469]
Sent-Debiasはバイアスを取り除くのに有効であり、同時に文レベルの下流タスクのパフォーマンスを保っていることを示す。
我々は、より公平なNLPのための広く採用されている文表現から社会的偏見を識別・除去する今後の研究に刺激を与えることを期待している。
論文 参考訳(メタデータ) (2020-07-16T04:22:30Z) - Gender Bias in Multilingual Embeddings and Cross-Lingual Transfer [101.58431011820755]
多言語埋め込みにおけるジェンダーバイアスとNLPアプリケーションの伝達学習への影響について検討する。
我々は、バイアス分析のための多言語データセットを作成し、多言語表現におけるバイアスの定量化方法をいくつか提案する。
論文 参考訳(メタデータ) (2020-05-02T04:34:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。