論文の概要: Mention Attention for Pronoun Translation
- arxiv url: http://arxiv.org/abs/2412.14829v1
- Date: Thu, 19 Dec 2024 13:19:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-20 13:32:00.953227
- Title: Mention Attention for Pronoun Translation
- Title(参考訳): 代名詞翻訳における心的注意
- Authors: Gongbo Tang, Christian Hardmeier,
- Abstract要約: ソース参照に余分な注意を払うために、デコーダに追加の参照注意モジュールを導入します。
注記参照モジュールは、ソース参照から特徴を抽出するだけでなく、代名詞翻訳の恩恵を受けるターゲット側コンテキストも考慮する。
我々は、WMT17英語-ドイツ語翻訳タスクの実験を行い、一般的な翻訳と代名詞翻訳のモデルを評価する。
- 参考スコア(独自算出の注目度): 5.896961355859321
- License:
- Abstract: Most pronouns are referring expressions, computers need to resolve what do the pronouns refer to, and there are divergences on pronoun usage across languages. Thus, dealing with these divergences and translating pronouns is a challenge in machine translation. Mentions are referring candidates of pronouns and have closer relations with pronouns compared to general tokens. We assume that extracting additional mention features can help pronoun translation. Therefore, we introduce an additional mention attention module in the decoder to pay extra attention to source mentions but not non-mention tokens. Our mention attention module not only extracts features from source mentions, but also considers target-side context which benefits pronoun translation. In addition, we also introduce two mention classifiers to train models to recognize mentions, whose outputs guide the mention attention. We conduct experiments on the WMT17 English-German translation task, and evaluate our models on general translation and pronoun translation, using BLEU, APT, and contrastive evaluation metrics. Our proposed model outperforms the baseline Transformer model in terms of APT and BLEU scores, this confirms our hypothesis that we can improve pronoun translation by paying additional attention to source mentions, and shows that our introduced additional modules do not have negative effect on the general translation quality.
- Abstract(参考訳): ほとんどの代名詞は表現を参照し、コンピュータは代名詞が何を指しているのかを解明する必要がある。
したがって、これらの発散や代名詞の翻訳を扱うことは機械翻訳の課題である。
メンションは代名詞の候補を指し、一般的なトークンと比較して代名詞と密接な関係を持つ。
付加的な言及特徴の抽出は代名詞翻訳に役立つと仮定する。
したがって、デコーダに付加的な参照注意モジュールを導入し、ソース参照に注意を払うが、非メンショントークンには注意を払わない。
注記参照モジュールは、ソース参照から特徴を抽出するだけでなく、代名詞翻訳の恩恵を受けるターゲット側コンテキストも考慮する。
さらに,2つの参照分類器を導入して,参照認識モデルを構築し,その出力が参照注意を導く。
我々は、WMT17英語-ドイツ語翻訳タスクの実験を行い、BLEU、APT、コントラスト評価指標を用いて、一般翻訳と代名詞翻訳のモデルの評価を行った。
提案モデルでは, APT と BLEU のスコアでベースライントランスフォーマーモデルよりも優れており,ソース参照に注意を払って代名詞翻訳を改善することができるという仮説を裏付けるとともに,導入した追加モジュールが一般的な翻訳品質に悪影響を及ぼさないことを示す。
関連論文リスト
- Mitigating Bias in Queer Representation within Large Language Models: A Collaborative Agent Approach [0.0]
大きな言語モデル(LLM)は、しばしば代名詞の用法においてバイアスを持続させ、キーア個人を誤って表現したり排除したりする。
本稿では、LLM出力における偏り付き代名詞の使用の特定の問題、特に伝統的性別付き代名詞の不適切な使用について論じる。
本稿では,これらのバイアスを軽減するための協調的エージェントパイプラインを提案する。
論文 参考訳(メタデータ) (2024-11-12T09:14:16Z) - A Survey on Zero Pronoun Translation [69.09774294082965]
ゼロ代名詞(ZP)はプロドロップ言語では省略されることが多いが、非プロドロップ言語ではリコールされるべきである。
本研究は, 神経革命後のゼロ代名詞翻訳(ZPT)における主要な研究について述べる。
1) ZPTは大規模言語モデルの発展傾向と一致している; 2) データの制限は言語やドメインの学習バイアスを引き起こす; 3) 性能改善は単一のベンチマークで報告されることが多いが、高度な手法はまだ実世界の利用には程遠い。
論文 参考訳(メタデータ) (2023-05-17T13:19:01Z) - Shapley Head Pruning: Identifying and Removing Interference in
Multilingual Transformers [54.4919139401528]
言語固有のパラメータを識別・解析することで干渉を減らすことができることを示す。
固定モデルから同定された注目ヘッドを除去することで、文分類と構造予測の両方において、ターゲット言語の性能が向上することを示す。
論文 参考訳(メタデータ) (2022-10-11T18:11:37Z) - ChrEnTranslate: Cherokee-English Machine Translation Demo with Quality
Estimation and Corrective Feedback [70.5469946314539]
ChrEnTranslateは、英語と絶滅危惧言語チェロキーとの翻訳のためのオンライン機械翻訳デモシステムである。
統計モデルとニューラルネットワークモデルの両方をサポートし、信頼性をユーザに通知するための品質評価を提供する。
論文 参考訳(メタデータ) (2021-07-30T17:58:54Z) - Zero-pronoun Data Augmentation for Japanese-to-English Translation [15.716533830931764]
本研究では,局所文脈とゼロ代名詞の相関関係を学習するために,翻訳モデルに付加的な訓練信号を提供するデータ拡張手法を提案する。
提案手法は,会話領域における機械翻訳実験によるゼロ代名詞翻訳の精度を大幅に向上することを示す。
論文 参考訳(メタデータ) (2021-07-01T09:17:59Z) - Do Context-Aware Translation Models Pay the Right Attention? [61.25804242929533]
コンテキスト対応機械翻訳モデルは文脈情報を活用するように設計されているが、しばしば失敗する。
本稿では,人間の翻訳者が曖昧な単語を解くために使用する文脈について述べる。
SCAT(Supporting Context for Ambiguous Translations)は、14K翻訳のコンテキストワードをサポートする新しい英仏データセットです。
SCATを用いて,支援語の位置的特徴と語彙的特徴をあいまいにするために使用される文脈を詳細に分析する。
論文 参考訳(メタデータ) (2021-05-14T17:32:24Z) - Repairing Pronouns in Translation with BERT-Based Post-Editing [7.6344611819427035]
いくつかの領域では、代名詞選択がNMTシステムのエラーの半数以上を占めることが示される。
次に、ソース側文のチャンクを使用して、代名詞予測タスクでBERTを微調整するソリューションを検討します。
論文 参考訳(メタデータ) (2021-03-23T21:01:03Z) - Transformer-GCRF: Recovering Chinese Dropped Pronouns with General
Conditional Random Fields [54.03719496661691]
本稿では,隣接する発話における代名詞間の依存関係をモデル化するために,トランスフォーマーネットワークの強みと一般条件ランダムフィールド(GCRF)を組み合わせる新しい枠組みを提案する。
3つの中国語会話データセットの結果、Transformer-GCRFモデルは、最先端のドロップした代名詞回復モデルよりも優れていた。
論文 参考訳(メタデータ) (2020-10-07T07:06:09Z) - Scalable Cross Lingual Pivots to Model Pronoun Gender for Translation [4.775445987662862]
文書理解が不十分な機械翻訳システムは、ドロップまたは中性代名詞を性別付き代名詞を持つ言語に翻訳する際に誤りを犯す可能性がある。
高品質な性別ラベルを自動生成する新しい言語間ピボット手法を提案する。
論文 参考訳(メタデータ) (2020-06-16T02:41:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。