論文の概要: Mitigating Gender Bias in Machine Translation through Adversarial
Learning
- arxiv url: http://arxiv.org/abs/2203.10675v1
- Date: Sun, 20 Mar 2022 23:35:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-22 14:08:58.290965
- Title: Mitigating Gender Bias in Machine Translation through Adversarial
Learning
- Title(参考訳): 逆学習による機械翻訳におけるジェンダーバイアスの軽減
- Authors: Eve Fleisig and Christiane Fellbaum
- Abstract要約: 本稿では,Seq2seq機械翻訳におけるジェンダーバイアスを軽減するための課題に対処する逆学習フレームワークを提案する。
本枠組みは,英語翻訳では86%,フランス語翻訳では91%,男性対女性文では86%の翻訳品質を向上する。
- 参考スコア(独自算出の注目度): 0.8883733362171032
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine translation and other NLP systems often contain significant biases
regarding sensitive attributes, such as gender or race, that worsen system
performance and perpetuate harmful stereotypes. Recent preliminary research
suggests that adversarial learning can be used as part of a model-agnostic bias
mitigation method that requires no data modifications. However, adapting this
strategy for machine translation and other modern NLP domains requires (1)
restructuring training objectives in the context of fine-tuning pretrained
large language models and (2) developing measures for gender or other protected
variables for tasks in which these attributes must be deduced from the data
itself.
We present an adversarial learning framework that addresses these challenges
to mitigate gender bias in seq2seq machine translation. Our framework improves
the disparity in translation quality for sentences with male vs. female
entities by 86% for English-German translation and 91% for English-French
translation, with minimal effect on translation quality. The results suggest
that adversarial learning is a promising technique for mitigating gender bias
in machine translation.
- Abstract(参考訳): 機械翻訳やその他のNLPシステムはしばしば、性別や人種などのセンシティブな属性に関する重大なバイアスを伴い、システムのパフォーマンスが悪化し、有害なステレオタイプが持続する。
近年の予備研究では、データ修正を必要としないモデル非依存バイアス緩和手法の一部として、対人学習が利用可能であることが示唆されている。
しかし,この手法を機械翻訳や他の現代のNLPドメインに適用するには,(1)微調整済みの大規模言語モデルの文脈でトレーニング対象を再構築すること,(2)これらの属性をデータ自体から導出しなければならないタスクに対して,性別や他の保護された変数の尺度を開発することが必要である。
本稿では,seq2seq機械翻訳におけるジェンダーバイアスを軽減するために,これらの課題に対処する逆学習フレームワークを提案する。
提案手法は, 男性と女性との翻訳品質の差を86%, 英語とフランス語の翻訳を91%改善し, 翻訳品質への影響を最小限に抑えた。
その結果, 逆学習は, 機械翻訳におけるジェンダーバイアスを緩和する有望な手法であることが示唆された。
関連論文リスト
- Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - Gender Bias in Machine Translation and The Era of Large Language Models [0.8702432681310399]
この章では、性バイアスの持続化における機械翻訳の役割について検討し、言語横断的な設定と統計的依存関係によって生じる課題を強調している。
従来のニューラルマシン翻訳手法と、機械翻訳システムとして使用される生成事前学習トランスフォーマモデルの両方において、ジェンダーバイアスに関連する既存の作業の概要を概観する。
論文 参考訳(メタデータ) (2024-01-18T14:34:49Z) - A Tale of Pronouns: Interpretability Informs Gender Bias Mitigation for
Fairer Instruction-Tuned Machine Translation [35.44115368160656]
機械翻訳モデルがジェンダーバイアスを示すか否かについて検討する。
We found that IFT model default to male-inflected translations, evengarding female occupational stereotypes。
実装が容易で効果的なバイアス緩和ソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-18T17:36:55Z) - Target-Agnostic Gender-Aware Contrastive Learning for Mitigating Bias in
Multilingual Machine Translation [28.471506840241602]
ジェンダーバイアスは機械翻訳において重要な問題であり、バイアス軽減技術の研究が進行中である。
本稿では,新しいアプローチに基づくバイアス緩和手法を提案する。
Gender-Aware Contrastive Learning, GACLは、文脈性情報を非明示性単語の表現にエンコードする。
論文 参考訳(メタデータ) (2023-05-23T12:53:39Z) - The Best of Both Worlds: Combining Human and Machine Translations for
Multilingual Semantic Parsing with Active Learning [50.320178219081484]
人文翻訳と機械翻訳の両方の長所を生かした能動的学習手法を提案する。
理想的な発話選択は、翻訳されたデータの誤りとバイアスを著しく低減することができる。
論文 参考訳(メタデータ) (2023-05-22T05:57:47Z) - DEEP: DEnoising Entity Pre-training for Neural Machine Translation [123.6686940355937]
機械翻訳モデルは通常、トレーニングコーパスで稀な名前付きエンティティの翻訳を貧弱に生成することが示されている。
文中の名前付きエンティティ翻訳精度を向上させるために,大量のモノリンガルデータと知識ベースを利用するDenoising Entity Pre-training法であるDEEPを提案する。
論文 参考訳(メタデータ) (2021-11-14T17:28:09Z) - On the Language Coverage Bias for Neural Machine Translation [81.81456880770762]
言語カバレッジバイアスは、ニューラルネットワーク翻訳(NMT)において重要である。
実験を慎重に設計することにより、トレーニングデータにおける言語カバレッジバイアスの包括的分析を行う。
本稿では,言語カバレッジバイアス問題を軽減するための,シンプルで効果的な2つのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-07T01:55:34Z) - Improving Gender Translation Accuracy with Filtered Self-Training [14.938401898546548]
機械翻訳システムは、性別が文脈から明確である場合でも、しばしば誤った性別を出力する。
性別不明瞭な入力に対してジェンダー翻訳精度を向上させるためのジェンダーフィルターによる自己訓練手法を提案する。
論文 参考訳(メタデータ) (2021-04-15T18:05:29Z) - Decoding and Diversity in Machine Translation [90.33636694717954]
NMTが楽しむBLEUスコアに対して支払う費用の多様性の違いを特徴付ける。
本研究は,ジェンダー代名詞を翻訳する際に,検索が既知バイアスの正解源となることを示唆する。
論文 参考訳(メタデータ) (2020-11-26T21:09:38Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z) - Reducing Gender Bias in Neural Machine Translation as a Domain
Adaptation Problem [21.44025591721678]
NLPタスクのトレーニングデータは、男性よりも女性に言及する文が少ないという性別バイアスを呈することが多い。
最近のWinoMTチャレンジセットでは、この効果を直接測定することができます。
私たちは、信頼できる性別バランスの例の小さなセットでトランスファーラーニングを使用します。
論文 参考訳(メタデータ) (2020-04-09T11:55:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。