論文の概要: Screening Gender Transfer in Neural Machine Translation
- arxiv url: http://arxiv.org/abs/2202.12568v1
- Date: Fri, 25 Feb 2022 09:05:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-28 15:01:47.236139
- Title: Screening Gender Transfer in Neural Machine Translation
- Title(参考訳): ニューラルマシン翻訳における性伝達のスクリーニング
- Authors: Guillaume Wisniewski, Lichao Zhu, Nicolas Ballier, Fran\c{c}ois Yvon
- Abstract要約: 本稿では,最先端機械翻訳システムにおける情報フローの同定を目的とする。
ジェンダー情報は、エンコーダとデコーダによって構築されたすべてのトークン表現で見ることができる。
- 参考スコア(独自算出の注目度): 3.96673286245683
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper aims at identifying the information flow in state-of-the-art
machine translation systems, taking as example the transfer of gender when
translating from French into English. Using a controlled set of examples, we
experiment several ways to investigate how gender information circulates in a
encoder-decoder architecture considering both probing techniques as well as
interventions on the internal representations used in the MT system. Our
results show that gender information can be found in all token representations
built by the encoder and the decoder and lead us to conclude that there are
multiple pathways for gender transfer.
- Abstract(参考訳): 本稿では,最先端機械翻訳システムにおける情報フローの同定を目的とし,フランス語から英語への翻訳におけるジェンダーの移動を例に挙げる。
制御された例を用いて、MTシステムにおける内部表現の介入だけでなく、探索手法も考慮し、エンコーダ・デコーダアーキテクチャにおけるジェンダー情報の循環について検討する。
以上の結果から,エンコーダとデコーダによって構築されたすべてのトークン表現に性別情報を見出すことができ,男女移動には複数の経路が存在するという結論に至った。
関連論文リスト
- Gender Bias in Machine Translation and The Era of Large Language Models [0.8702432681310399]
この章では、性バイアスの持続化における機械翻訳の役割について検討し、言語横断的な設定と統計的依存関係によって生じる課題を強調している。
従来のニューラルマシン翻訳手法と、機械翻訳システムとして使用される生成事前学習トランスフォーマモデルの両方において、ジェンダーバイアスに関連する既存の作業の概要を概観する。
論文 参考訳(メタデータ) (2024-01-18T14:34:49Z) - Guided Image-to-Image Translation by Discriminator-Generator
Communication [71.86347329356244]
Image-to-image (I2I) 翻訳の目標は、ソースドメインからターゲットドメインに画像を転送することである。
本研究の主な分野は,GAN(Generative Adversarial Network)に基づくI2I翻訳の定式化である。
論文 参考訳(メタデータ) (2023-03-07T02:29:36Z) - Analyzing Gender Representation in Multilingual Models [59.21915055702203]
実践的なケーススタディとして,ジェンダーの区別の表現に焦点をあてる。
ジェンダーの概念が、異なる言語で共有された部分空間にエンコードされる範囲について検討する。
論文 参考訳(メタデータ) (2022-04-20T00:13:01Z) - Investigating Failures of Automatic Translation in the Case of
Unambiguous Gender [13.58884863186619]
トランスフォーマーベースのモデルは、ニューラルマシン翻訳(NMT)のための現代の作業馬です。
我々は、名詞の性別をマークしない言語から他の名詞に翻訳することに関して、トランスフォーマーモデルによる体系的で初歩的なエラーのクラスを観察する。
トランスベースのNMTモデルがジェンダーを正しく翻訳する能力を測定するための評価スキームとデータセットをリリースします。
論文 参考訳(メタデータ) (2021-04-16T00:57:36Z) - Gender Bias in Multilingual Neural Machine Translation: The Architecture
Matters [1.8472148461613158]
本稿では,選択したアーキテクチャが,同じデータを用いてトレーニングされた場合,性別バイアスの精度に影響を及ぼすかどうかを検討する。
4つの言語対の実験により、言語固有のエンコーダ-デコーダは共有エンコーダ-デコーダアーキテクチャよりもバイアスが少ないことが示されている。
論文 参考訳(メタデータ) (2020-12-24T09:27:52Z) - Breeding Gender-aware Direct Speech Translation Systems [14.955696163410254]
性別認識型stソリューションは強い-しかし性別認識型stモデルを大きく上回る可能性がある。
ジェンダーマーク付き単語の翻訳は、全体的な翻訳品質を維持しながら、精度が最大30ポイント向上する。
論文 参考訳(メタデータ) (2020-12-09T10:18:03Z) - On the Sub-Layer Functionalities of Transformer Decoder [74.83087937309266]
トランスフォーマーをベースとしたデコーダは,ソースおよびターゲット言語からの情報をいかに活用するかを検討する。
これらの知見に基づき,各トランスフォーマーデコーダ層内の残フィードフォワードモジュールは,性能の低下を最小限に抑えられることを示した。
論文 参考訳(メタデータ) (2020-10-06T11:50:54Z) - Multi-channel Transformers for Multi-articulatory Sign Language
Translation [59.38247587308604]
本稿では,多調な手話翻訳課題に取り組み,新しいマルチチャネルトランスフォーマアーキテクチャを提案する。
提案アーキテクチャにより、異なる手話調節間の文脈内関係をトランスフォーマネットワーク内でモデル化することができる。
論文 参考訳(メタデータ) (2020-09-01T09:10:55Z) - Automatically Identifying Gender Issues in Machine Translation using
Perturbations [8.764437514164738]
提案手法を用いて,3言語ファミリーの4言語を対象に,評価ベンチマークをコンパイルする。
ベンチマークの例では、モデル表現がジェンダー化されている場所と、これらのジェンダー化表現がダウンストリームアプリケーションに持つ意図しない結果が明らかになっている。
論文 参考訳(メタデータ) (2020-04-29T10:38:09Z) - Explicit Reordering for Neural Machine Translation [50.70683739103066]
Transformer-based neural machine translation (NMT)では、位置符号化機構は、自己アテンションネットワークが順序依存でソース表現を学習するのに役立つ。
本研究では,トランスフォーマーベースのNMTに対して,このリオーダ情報を明示的にモデル化する新しいリオーダ手法を提案する。
WMT14, WAT ASPEC日本語訳, WMT17中国語訳の実証結果から, 提案手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-04-08T05:28:46Z) - GRET: Global Representation Enhanced Transformer [85.58930151690336]
Transformerは、エンコーダ-デコーダフレームワークに基づいて、いくつかの自然言語生成タスクで最先端のパフォーマンスを達成した。
本稿では,トランスフォーマネットワークにおけるグローバル表現を明示的にモデル化するための,新しいグローバル表現拡張トランスフォーマ(GRET)を提案する。
論文 参考訳(メタデータ) (2020-02-24T07:37:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。