論文の概要: Gender-Inclusive Grammatical Error Correction through Augmentation
- arxiv url: http://arxiv.org/abs/2306.07415v1
- Date: Mon, 12 Jun 2023 20:44:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 15:48:23.745410
- Title: Gender-Inclusive Grammatical Error Correction through Augmentation
- Title(参考訳): 拡張によるジェンダー包摂的文法的誤り訂正
- Authors: Gunnar Lund, Kostiantyn Omelianchuk, Igor Samokhin
- Abstract要約: GECシステムでは、男性・女性用語の使用と性中立性特異性(they)との関連性バイアスが示される。
我々は,男性・女性用語と特異な「それら」を持つテキストの並列データセットを開発し,これらを用いて,3つの競合GECシステムにおけるジェンダーバイアスの定量化を行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we show that GEC systems display gender bias related to the use
of masculine and feminine terms and the gender-neutral singular "they". We
develop parallel datasets of texts with masculine and feminine terms and
singular "they" and use them to quantify gender bias in three competitive GEC
systems. We contribute a novel data augmentation technique for singular "they"
leveraging linguistic insights about its distribution relative to plural
"they". We demonstrate that both this data augmentation technique and a
refinement of a similar augmentation technique for masculine and feminine terms
can generate training data that reduces bias in GEC systems, especially with
respect to singular "they" while maintaining the same level of quality.
- Abstract(参考訳): 本稿では,gecシステムが男性・女性用語と性中立特異点「それら」の使用に関連するジェンダーバイアスを示すことを示す。
男性および女性用語と特異な「それら」を持つテキストの並列データセットを開発し、3つの競合gecシステムにおけるジェンダーバイアスの定量化に使用する。
本稿では,その分布に関する言語学的知見を活用する特異な「それら」に対して,新たなデータ拡張手法を提案する。
また,このデータ拡張技術と,男性および女性用語における同様の拡張技術の洗練は,gecシステムにおいて,特に特異な「それら」に対して,同じレベルの品質を維持しながらバイアスを低減させるトレーニングデータを生成することができることを実証した。
関連論文リスト
- Identifying Gender Stereotypes and Biases in Automated Translation from English to Italian using Similarity Networks [0.25049267048783647]
本論文は,自動翻訳システムにおけるステレオタイプとバイアスを評価するために,言語学,法学,計算機科学の協力的な取り組みである。
ジェンダーインクルージョンを促進し,機械翻訳の客観性を向上させる手段として,ジェンダーニュートラル翻訳を提唱する。
論文 参考訳(メタデータ) (2025-02-17T09:55:32Z) - Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - Building Bridges: A Dataset for Evaluating Gender-Fair Machine Translation into German [17.924716793621627]
英独機械翻訳(MT)におけるジェンダーフェア言語の研究
2つの商用システムと6つのニューラルMTモデルを含む最初のベンチマーク研究を行う。
以上の結果から,ほとんどのシステムでは男性型が主流であり,性別ニュートラル変種は稀である。
論文 参考訳(メタデータ) (2024-06-10T09:39:19Z) - Gender Inflected or Bias Inflicted: On Using Grammatical Gender Cues for
Bias Evaluation in Machine Translation [0.0]
我々はヒンディー語をソース言語とし、ヒンディー語(HI-EN)の異なるNMTシステムを評価するために、ジェンダー特化文の2つのセットを構築した。
本研究は,そのような外部バイアス評価データセットを設計する際に,言語の性質を考えることの重要性を強調した。
論文 参考訳(メタデータ) (2023-11-07T07:09:59Z) - How To Build Competitive Multi-gender Speech Translation Models For
Controlling Speaker Gender Translation [21.125217707038356]
発音性言語から文法性言語に翻訳する場合、生成された翻訳は、話者を参照する者を含む様々な単語に対して、明確なジェンダー代入を必要とする。
このような偏見や包括的行動を避けるために、話者の性別に関する外部から提供されたメタデータによって、話者関連表現の性別割当を導出すべきである。
本稿では、話者のジェンダーメタデータを単一の「マルチジェンダー」ニューラルSTモデルに統合し、維持しやすくすることで、同じ結果を達成することを目的とする。
論文 参考訳(メタデータ) (2023-10-23T17:21:32Z) - The Gender-GAP Pipeline: A Gender-Aware Polyglot Pipeline for Gender
Characterisation in 55 Languages [51.2321117760104]
本稿では,55言語を対象とした大規模データセットにおけるジェンダー表現を特徴付ける自動パイプラインであるGender-GAP Pipelineについて述べる。
このパイプラインは、性別付き人称名詞の多言語語彙を用いて、テキスト中の性別表現を定量化する。
本稿では、WMTのトレーニングデータとNewsタスクの開発データにジェンダー表現を報告し、現在のデータが男性表現にスキューされていることを確認する。
論文 参考訳(メタデータ) (2023-08-31T17:20:50Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Gender, names and other mysteries: Towards the ambiguous for
gender-inclusive translation [7.322734499960981]
本稿では,元文が明示的なジェンダーマーカーを欠いている場合について考察するが,目的文はより豊かな文法的ジェンダーによってそれらを含む。
MTデータ中の多くの名前と性別の共起は、ソース言語の「あいまいな性別」で解決できないことがわかった。
ジェンダー・インクルージョンの両面での曖昧さを受け入れるジェンダー・インクルージョン・トランスフォーメーションの可能性について論じる。
論文 参考訳(メタデータ) (2023-06-07T16:21:59Z) - They, Them, Theirs: Rewriting with Gender-Neutral English [56.14842450974887]
私たちは、英語でジェンダーインクルージョンを促進する一般的な方法である特異点についてケーススタディを行います。
本研究では, 人為的データを持たない1%の単語誤り率で, ジェンダーニュートラルな英語を学習できるモデルについて述べる。
論文 参考訳(メタデータ) (2021-02-12T21:47:48Z) - Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by
Ranking Algorithms [68.85295025020942]
本稿では,性別ステレオタイプをサポートする検索エンジンの傾向を定量化するジェンダーステレオタイプ強化(GSR)尺度を提案する。
GSRは、表現上の害を定量化できる情報検索のための、最初の特別に調整された尺度である。
論文 参考訳(メタデータ) (2020-09-02T20:45:04Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。