論文の概要: How sensitive are translation systems to extra contexts? Mitigating
gender bias in Neural Machine Translation models through relevant contexts
- arxiv url: http://arxiv.org/abs/2205.10762v1
- Date: Sun, 22 May 2022 06:31:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-30 03:47:13.071478
- Title: How sensitive are translation systems to extra contexts? Mitigating
gender bias in Neural Machine Translation models through relevant contexts
- Title(参考訳): 余分な文脈に対する翻訳システムはどの程度敏感か?
関連文脈によるニューラルマシン翻訳モデルにおける性別バイアスの緩和
- Authors: Shanya Sharma and Manan Dey and Koustuv Sinha
- Abstract要約: ますます多くの研究が、ニューラルマシン翻訳モデルがトレーニング中に導入する固有の性バイアスを強調している。
そこで本研究では,これらのモデルに対して,対象とした指示をコンテキストとして,推論中にバイアスを修正するように指示できるかどうかを検討する。
3つの一般的なテストスイート間で、翻訳における性別バイアスの低減に関する大幅な改善を観察する。
- 参考スコア(独自算出の注目度): 11.684346035745975
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural Machine Translation systems built on top of Transformer-based
architectures are routinely improving the state-of-the-art in translation
quality according to word-overlap metrics. However, a growing number of studies
also highlight the inherent gender bias that these models incorporate during
training, which reflects poorly in their translations. In this work, we
investigate whether these models can be instructed to fix their bias during
inference using targeted, guided instructions as contexts. By translating
relevant contextual sentences during inference along with the input, we observe
large improvements in reducing the gender bias in translations, across three
popular test suites (WinoMT, BUG, SimpleGen). We further propose a novel metric
to assess several large pretrained models (OPUS-MT, M2M-100) on their
sensitivity towards using contexts during translation to correct their biases.
Our approach requires no fine-tuning, and thus can be used easily in production
systems to de-bias translations from stereotypical gender-occupation bias. We
hope our method, along with our metric, can be used to build better, bias-free
translation systems.
- Abstract(参考訳): Transformerベースのアーキテクチャ上に構築されたニューラル機械翻訳システムは、ワードオーバーラップのメトリクスに従って、翻訳品質の最先端性を定期的に改善している。
しかし、多くの研究は、これらのモデルがトレーニング中に含んでいる固有の性別バイアスも強調している。
そこで本研究では,これらのモデルに対して,対象とした指導命令をコンテキストとして,推論中にバイアスを修正するように指示できるかどうかを検討する。
入力とともに、関連する文脈文を翻訳することにより、3つの一般的なテストスイート(WinoMT, BUG, SimpleGen)において、翻訳における性別バイアスの低減に大きな改善が見られた。
さらに、翻訳中にコンテキストを用いてバイアスを補正する際の感度に基づいて、いくつかの大きな事前学習モデル(OPUS-MT, M2M-100)を評価するための新しい指標を提案する。
当社の手法では微調整は必要とせず、生産システムではステレオタイプによる性別占有バイアスからの脱バイアスに容易に利用できる。
我々の手法は、我々の測定値とともに、より良いバイアスのない翻訳システムを構築するために利用できることを願っている。
関連論文リスト
- Does Context Help Mitigate Gender Bias in Neural Machine Translation? [1.534667887016089]
我々は、英語からドイツ語へのステレオタイプ専門職の翻訳と、バスク語からスペイン語への非形式的文脈による翻訳を分析している。
以上の結果から, 文脈認識モデルは女性用語の翻訳精度を著しく向上させることができるが, 性別バイアスの維持や増幅も可能であることが示唆された。
論文 参考訳(メタデータ) (2024-06-18T07:44:13Z) - A Tale of Pronouns: Interpretability Informs Gender Bias Mitigation for
Fairer Instruction-Tuned Machine Translation [35.44115368160656]
機械翻訳モデルがジェンダーバイアスを示すか否かについて検討する。
We found that IFT model default to male-inflected translations, evengarding female occupational stereotypes。
実装が容易で効果的なバイアス緩和ソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-18T17:36:55Z) - BLEURT Has Universal Translations: An Analysis of Automatic Metrics by
Minimum Risk Training [64.37683359609308]
本研究では,機械翻訳システムの学習指導の観点から,各種の主流および最先端の自動測定値について分析する。
BLEURT や BARTScore における普遍的逆変換の存在など,ある種の指標は堅牢性欠陥を示す。
詳細な分析では、これらのロバスト性障害の主な原因は、トレーニングデータセットにおける分布バイアスと、メートル法パラダイムの傾向である。
論文 参考訳(メタデータ) (2023-07-06T16:59:30Z) - The Best of Both Worlds: Combining Human and Machine Translations for
Multilingual Semantic Parsing with Active Learning [50.320178219081484]
人文翻訳と機械翻訳の両方の長所を生かした能動的学習手法を提案する。
理想的な発話選択は、翻訳されたデータの誤りとバイアスを著しく低減することができる。
論文 参考訳(メタデータ) (2023-05-22T05:57:47Z) - Mitigating Gender Bias in Machine Translation through Adversarial
Learning [0.8883733362171032]
本稿では,Seq2seq機械翻訳におけるジェンダーバイアスを軽減するための課題に対処する逆学習フレームワークを提案する。
本枠組みは,英語翻訳では86%,フランス語翻訳では91%,男性対女性文では86%の翻訳品質を向上する。
論文 参考訳(メタデータ) (2022-03-20T23:35:09Z) - When Does Translation Require Context? A Data-driven, Multilingual
Exploration [71.43817945875433]
談話の適切な処理は機械翻訳(MT)の品質に大きく貢献する
文脈認識型MTにおける最近の研究は、評価中に少量の談話現象を標的にしようとしている。
談話現象のモデル性能を識別・評価するタグの集合である,多言語談話認識ベンチマークを開発した。
論文 参考訳(メタデータ) (2021-09-15T17:29:30Z) - ChrEnTranslate: Cherokee-English Machine Translation Demo with Quality
Estimation and Corrective Feedback [70.5469946314539]
ChrEnTranslateは、英語と絶滅危惧言語チェロキーとの翻訳のためのオンライン機械翻訳デモシステムである。
統計モデルとニューラルネットワークモデルの両方をサポートし、信頼性をユーザに通知するための品質評価を提供する。
論文 参考訳(メタデータ) (2021-07-30T17:58:54Z) - Measuring and Increasing Context Usage in Context-Aware Machine
Translation [64.5726087590283]
機械翻訳モデルによるコンテキストの使用を定量的にするために、新しいメトリクス、条件付き相互情報を導入します。
次に,コンテキスト認識モデルによってコンテキストの使用量を増やすために,コンテキスト認識ワードドロップアウトという,新しい簡易なトレーニング手法を導入する。
論文 参考訳(メタデータ) (2021-05-07T19:55:35Z) - Decoding and Diversity in Machine Translation [90.33636694717954]
NMTが楽しむBLEUスコアに対して支払う費用の多様性の違いを特徴付ける。
本研究は,ジェンダー代名詞を翻訳する際に,検索が既知バイアスの正解源となることを示唆する。
論文 参考訳(メタデータ) (2020-11-26T21:09:38Z) - Robust Neural Machine Translation: Modeling Orthographic and
Interpunctual Variation [3.3194866396158]
そこで本研究では,10種類の逆例を生成するための簡易な生成ノイズモデルを提案する。
ノイズの多いデータでテストすると、敵の例を使って訓練されたシステムは、クリーンなデータを翻訳するのと同様に、ほぼ同等に機能することを示す。
論文 参考訳(メタデータ) (2020-09-11T14:12:54Z) - Reducing Gender Bias in Neural Machine Translation as a Domain
Adaptation Problem [21.44025591721678]
NLPタスクのトレーニングデータは、男性よりも女性に言及する文が少ないという性別バイアスを呈することが多い。
最近のWinoMTチャレンジセットでは、この効果を直接測定することができます。
私たちは、信頼できる性別バランスの例の小さなセットでトランスファーラーニングを使用します。
論文 参考訳(メタデータ) (2020-04-09T11:55:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。