論文の概要: Improving Gender Translation Accuracy with Filtered Self-Training
- arxiv url: http://arxiv.org/abs/2104.07695v1
- Date: Thu, 15 Apr 2021 18:05:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 09:58:21.452073
- Title: Improving Gender Translation Accuracy with Filtered Self-Training
- Title(参考訳): フィルタリング自己学習によるジェンダー翻訳精度の向上
- Authors: Prafulla Kumar Choubey, Anna Currey, Prashant Mathur, Georgiana Dinu
- Abstract要約: 機械翻訳システムは、性別が文脈から明確である場合でも、しばしば誤った性別を出力する。
性別不明瞭な入力に対してジェンダー翻訳精度を向上させるためのジェンダーフィルターによる自己訓練手法を提案する。
- 参考スコア(独自算出の注目度): 14.938401898546548
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Targeted evaluations have found that machine translation systems often output
incorrect gender, even when the gender is clear from context. Furthermore,
these incorrectly gendered translations have the potential to reflect or
amplify social biases. We propose a gender-filtered self-training technique to
improve gender translation accuracy on unambiguously gendered inputs. This
approach uses a source monolingual corpus and an initial model to generate
gender-specific pseudo-parallel corpora which are then added to the training
data. We filter the gender-specific corpora on the source and target sides to
ensure that sentence pairs contain and correctly translate the specified
gender. We evaluate our approach on translation from English into five
languages, finding that our models improve gender translation accuracy without
any cost to generic translation quality. In addition, we show the viability of
our approach on several settings, including re-training from scratch,
fine-tuning, controlling the balance of the training data, forward translation,
and back-translation.
- Abstract(参考訳): 対象とする評価では、文脈から性別が明確であっても、機械翻訳システムはしばしば誤った性別を出力する。
さらに、これらの不正確な性翻訳は社会バイアスを反映または増幅する可能性がある。
本研究は,非曖昧な入力に対するジェンダー翻訳精度を向上させるための,ジェンダーフィルターによる自己学習手法を提案する。
このアプローチでは、ソース単言語コーパスと初期モデルを使用して、トレーニングデータに追加される性別固有の擬似並列コーパスを生成する。
我々は、ソースとターゲット側の性別別コーパスをフィルタリングし、文対が特定の性別を含むことを保証する。
英語から5言語への翻訳に関するアプローチを評価し,汎用翻訳品質を犠牲にすることなく,モデルが性別翻訳精度を向上させることを見出した。
さらに,スクラッチからのリトレーニング,微調整,トレーニングデータのバランス制御,前方翻訳,バックトランスレーションなど,いくつかの設定において,我々のアプローチの有効性を示す。
関連論文リスト
- Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - The Gender-GAP Pipeline: A Gender-Aware Polyglot Pipeline for Gender
Characterisation in 55 Languages [51.2321117760104]
本稿では,55言語を対象とした大規模データセットにおけるジェンダー表現を特徴付ける自動パイプラインであるGender-GAP Pipelineについて述べる。
このパイプラインは、性別付き人称名詞の多言語語彙を用いて、テキスト中の性別表現を定量化する。
本稿では、WMTのトレーニングデータとNewsタスクの開発データにジェンダー表現を報告し、現在のデータが男性表現にスキューされていることを確認する。
論文 参考訳(メタデータ) (2023-08-31T17:20:50Z) - Target-Agnostic Gender-Aware Contrastive Learning for Mitigating Bias in
Multilingual Machine Translation [28.471506840241602]
ジェンダーバイアスは機械翻訳において重要な問題であり、バイアス軽減技術の研究が進行中である。
本稿では,新しいアプローチに基づくバイアス緩和手法を提案する。
Gender-Aware Contrastive Learning, GACLは、文脈性情報を非明示性単語の表現にエンコードする。
論文 参考訳(メタデータ) (2023-05-23T12:53:39Z) - The Best of Both Worlds: Combining Human and Machine Translations for
Multilingual Semantic Parsing with Active Learning [50.320178219081484]
人文翻訳と機械翻訳の両方の長所を生かした能動的学習手法を提案する。
理想的な発話選択は、翻訳されたデータの誤りとバイアスを著しく低減することができる。
論文 参考訳(メタデータ) (2023-05-22T05:57:47Z) - GATE: A Challenge Set for Gender-Ambiguous Translation Examples [0.31498833540989407]
ソースの性別が曖昧である場合、機械翻訳モデルは、通常、ステレオタイプなジェンダーロールにデフォルトされ、有害なバイアスが持続する。
最近の研究は、このような曖昧な入力に対して代替性翻訳を生成する「ジェンダーリフレクタ」の開発に繋がっているが、そのようなシステムは言語に乏しい範囲で悩まされている。
我々は、ジェンダー・あいまいなソース文の言語学的に多様なコーパスであるGATEと、複数の代替ターゲット言語翻訳を提示、リリースする。
論文 参考訳(メタデータ) (2023-03-07T15:23:38Z) - Mitigating Gender Bias in Machine Translation through Adversarial
Learning [0.8883733362171032]
本稿では,Seq2seq機械翻訳におけるジェンダーバイアスを軽減するための課題に対処する逆学習フレームワークを提案する。
本枠組みは,英語翻訳では86%,フランス語翻訳では91%,男性対女性文では86%の翻訳品質を向上する。
論文 参考訳(メタデータ) (2022-03-20T23:35:09Z) - DEEP: DEnoising Entity Pre-training for Neural Machine Translation [123.6686940355937]
機械翻訳モデルは通常、トレーニングコーパスで稀な名前付きエンティティの翻訳を貧弱に生成することが示されている。
文中の名前付きエンティティ翻訳精度を向上させるために,大量のモノリンガルデータと知識ベースを利用するDenoising Entity Pre-training法であるDEEPを提案する。
論文 参考訳(メタデータ) (2021-11-14T17:28:09Z) - They, Them, Theirs: Rewriting with Gender-Neutral English [56.14842450974887]
私たちは、英語でジェンダーインクルージョンを促進する一般的な方法である特異点についてケーススタディを行います。
本研究では, 人為的データを持たない1%の単語誤り率で, ジェンダーニュートラルな英語を学習できるモデルについて述べる。
論文 参考訳(メタデータ) (2021-02-12T21:47:48Z) - Mitigating Gender Bias in Machine Translation with Target Gender
Annotations [3.3194866396158]
文法的ジェンダーを持つ言語に「詳細を尋ねる秘書」を翻訳する場合、「秘書」のジェンダーを決定する必要があるかもしれない
このような場合、機械翻訳システムは、しばしばステレオタイプ翻訳に対応する最も一般的な翻訳オプションを選択する。
適切な翻訳に必要な情報は、翻訳される文から常に推測できるとは限らないと論じる。
本稿では,対象者の性別情報を含む単語レベルのアノテーションを使用する機械翻訳システムの訓練方法を提案する。
論文 参考訳(メタデータ) (2020-10-13T07:07:59Z) - Neural Machine Translation Doesn't Translate Gender Coreference Right
Unless You Make It [18.148675498274866]
ニューラル・マシン・トランスフォーメーションに明示的な単語レベルのジェンダー・インフレクション・タグを組み込む手法を提案する。
既存の単純なアプローチは、文中の複数のエンティティにジェンダー・フィーチャーを過度に一般化することができる。
また,英語のジェンダーニュートラルな実体の翻訳を,それに対応する言語規則で評価する拡張も提案する。
論文 参考訳(メタデータ) (2020-10-11T20:05:42Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。