論文の概要: Reducing Gender Bias in Neural Machine Translation as a Domain
Adaptation Problem
- arxiv url: http://arxiv.org/abs/2004.04498v3
- Date: Thu, 9 Jul 2020 14:20:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 02:55:31.192978
- Title: Reducing Gender Bias in Neural Machine Translation as a Domain
Adaptation Problem
- Title(参考訳): ドメイン適応問題としてのニューラルマシン翻訳におけるジェンダーバイアスの低減
- Authors: Danielle Saunders and Bill Byrne
- Abstract要約: NLPタスクのトレーニングデータは、男性よりも女性に言及する文が少ないという性別バイアスを呈することが多い。
最近のWinoMTチャレンジセットでは、この効果を直接測定することができます。
私たちは、信頼できる性別バランスの例の小さなセットでトランスファーラーニングを使用します。
- 参考スコア(独自算出の注目度): 21.44025591721678
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training data for NLP tasks often exhibits gender bias in that fewer
sentences refer to women than to men. In Neural Machine Translation (NMT)
gender bias has been shown to reduce translation quality, particularly when the
target language has grammatical gender. The recent WinoMT challenge set allows
us to measure this effect directly (Stanovsky et al, 2019).
Ideally we would reduce system bias by simply debiasing all data prior to
training, but achieving this effectively is itself a challenge. Rather than
attempt to create a `balanced' dataset, we use transfer learning on a small set
of trusted, gender-balanced examples. This approach gives strong and consistent
improvements in gender debiasing with much less computational cost than
training from scratch.
A known pitfall of transfer learning on new domains is `catastrophic
forgetting', which we address both in adaptation and in inference. During
adaptation we show that Elastic Weight Consolidation allows a performance
trade-off between general translation quality and bias reduction. During
inference we propose a lattice-rescoring scheme which outperforms all systems
evaluated in Stanovsky et al (2019) on WinoMT with no degradation of general
test set BLEU, and we show this scheme can be applied to remove gender bias in
the output of `black box` online commercial MT systems. We demonstrate our
approach translating from English into three languages with varied linguistic
properties and data availability.
- Abstract(参考訳): NLPタスクのトレーニングデータは、男性よりも女性に言及する文章が少ないという性別バイアスを示すことが多い。
ニューラルマシン翻訳(NMT)では、特に対象言語が文法的性別を持つ場合、性別バイアスは翻訳品質を低下させる。
最近のWinoMTチャレンジセットでは、この効果を直接測定することができます(Stanovsky et al, 2019)。
理想的には、トレーニング前にすべてのデータをデバイアスすることで、システムのバイアスを低減します。
バランスの取れた'データセットを作成するのではなく、少数の信頼された、性別のバランスの取れた例で転送学習を使います。
このアプローチは、スクラッチからトレーニングするよりも計算コストがはるかに少なく、ジェンダーの偏りを強く一貫した改善をもたらす。
新しいドメインでの転帰学習の落とし穴として、我々は適応と推論の両方に対処する「破滅的な忘れ」がある。
適応中、Elastic Weight Consolidationは一般的な翻訳品質とバイアス低減のトレードオフを可能にする。
推定中に,一般テストセットbleuの劣化を伴わないウィノムトにおけるstanovsky et al (2019) で評価された全てのシステムを上回る格子復元スキームを提案し,このスキームを用いて 'black box' オンライン商用mtシステムの出力における性別バイアスを除去できることを示した。
本稿では,言語特性とデータ利用率の異なる3言語に翻訳するアプローチを実証する。
関連論文リスト
- Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - Reducing Gender Bias in Machine Translation through Counterfactual Data
Generation [0.0]
訳語 訳語 訳語 訳語 訳語 訳語 訳語 訳語 訳語 訳語 訳語 訳語 訳詞 訳語 訳語 訳語 訳語 訳語 訳語 訳語 訳語 訳語 訳語 訳語 訳語 訳語 訳語 訳語 訳語 訳語 訳語
また,反実データ生成技術を用いて作成したドメイン内データを活用する新しいドメイン適応手法を提案する。
関連するコードはGithubで入手できる。
論文 参考訳(メタデータ) (2023-11-27T23:03:01Z) - A Tale of Pronouns: Interpretability Informs Gender Bias Mitigation for
Fairer Instruction-Tuned Machine Translation [35.44115368160656]
機械翻訳モデルがジェンダーバイアスを示すか否かについて検討する。
We found that IFT model default to male-inflected translations, evengarding female occupational stereotypes。
実装が容易で効果的なバイアス緩和ソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-18T17:36:55Z) - The Impact of Debiasing on the Performance of Language Models in
Downstream Tasks is Underestimated [70.23064111640132]
我々は、幅広いベンチマークデータセットを用いて、複数の下流タスクのパフォーマンスに対するデバイアスの影響を比較した。
実験により、デバイアスの効果は全てのタスクにおいて一貫して見積もられていることが示されている。
論文 参考訳(メタデータ) (2023-09-16T20:25:34Z) - Mitigating Gender Bias in Machine Translation through Adversarial
Learning [0.8883733362171032]
本稿では,Seq2seq機械翻訳におけるジェンダーバイアスを軽減するための課題に対処する逆学習フレームワークを提案する。
本枠組みは,英語翻訳では86%,フランス語翻訳では91%,男性対女性文では86%の翻訳品質を向上する。
論文 参考訳(メタデータ) (2022-03-20T23:35:09Z) - Improving Gender Fairness of Pre-Trained Language Models without
Catastrophic Forgetting [88.83117372793737]
元のトレーニングデータに情報を埋め込むことは、モデルの下流のパフォーマンスを大きなマージンで損なう可能性がある。
本稿では,GEnder Equality Prompt(GEEP)を提案する。
論文 参考訳(メタデータ) (2021-10-11T15:52:16Z) - Improving Multilingual Translation by Representation and Gradient
Regularization [82.42760103045083]
表現レベルと勾配レベルの両方でNMTモデルを正規化するための共同手法を提案する。
提案手法は,オフターゲット翻訳の発生率の低減とゼロショット翻訳性能の向上に有効であることを示す。
論文 参考訳(メタデータ) (2021-09-10T10:52:21Z) - Improving Gender Translation Accuracy with Filtered Self-Training [14.938401898546548]
機械翻訳システムは、性別が文脈から明確である場合でも、しばしば誤った性別を出力する。
性別不明瞭な入力に対してジェンダー翻訳精度を向上させるためのジェンダーフィルターによる自己訓練手法を提案する。
論文 参考訳(メタデータ) (2021-04-15T18:05:29Z) - First the worst: Finding better gender translations during beam search [19.921216907778447]
文法的ジェンダー翻訳における体系的誤りによるジェンダーバイアスに着目した。
ソース文から自動的に得られる性別特徴を用いて,nbestリストのランク付け実験を行った。
これらの技術を組み合わせることで、追加のバイリンガルデータや追加のNMTモデルを必要としないWinoMT精度が大幅に向上します。
論文 参考訳(メタデータ) (2021-04-15T12:53:30Z) - Mitigating Gender Bias in Captioning Systems [56.25457065032423]
ほとんどのキャプションモデルは性別バイアスを学習し、特に女性にとって高い性別予測エラーにつながる。
本稿では, 視覚的注意を自己指導し, 正しい性的な視覚的証拠を捉えるためのガイド付き注意画像キャプチャーモデル(GAIC)を提案する。
論文 参考訳(メタデータ) (2020-06-15T12:16:19Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。