論文の概要: Improving the Quality of Neural Machine Translation Through Proper
Translation of Name Entities
- arxiv url: http://arxiv.org/abs/2305.07360v1
- Date: Fri, 12 May 2023 10:20:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-15 13:29:47.148231
- Title: Improving the Quality of Neural Machine Translation Through Proper
Translation of Name Entities
- Title(参考訳): ネームエンティティの適切な翻訳によるニューラルマシン翻訳の品質向上
- Authors: Radhika Sharma, Pragya Katyayan, Nisheeth Joshi
- Abstract要約: 我々は、名前のエンティティを前処理ステップとして翻訳し、翻訳することで、ニューラルネットワーク翻訳の品質を向上させる方法を示した。
人名は99.86%、地名は99.63%、組織名は99.05%である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we have shown a method of improving the quality of neural
machine translation by translating/transliterating name entities as a
preprocessing step. Through experiments we have shown the performance gain of
our system. For evaluation we considered three types of name entities viz
person names, location names and organization names. The system was able to
correctly translate mostly all the name entities. For person names the accuracy
was 99.86%, for location names the accuracy was 99.63% and for organization
names the accuracy was 99.05%. Overall, the accuracy of the system was 99.52%
- Abstract(参考訳): 本稿では,前処理ステップとして名前エンティティを翻訳・翻訳することで,ニューラルネットワーク翻訳の品質を向上させる方法を示す。
実験により,システムの性能向上を示すことができた。
評価のために,vizの人物名,地名,組織名は3種類検討した。
システムは、ほとんどの名前のエンティティを正しく翻訳することができた。
人物名では99.86%、地名では99.63%、組織名では99.05%である。
システム全体の精度は99.52%でした
関連論文リスト
- Multicultural Name Recognition For Previously Unseen Names [65.268245109828]
本論文は、人名の認識を改善することを目的としており、それは、誰かが生まれたり、名前を変えたりする際にも、成長できる多様なカテゴリーである。
私は103か国の名前を見て、モデルが異なる文化の名前でどれだけうまく機能するかを比較します。
文字入力と単語入力を組み合わせたモデルの方が単語のみのモデルより優れており,従来のNERモデルと比較して精度が向上する可能性がある。
論文 参考訳(メタデータ) (2024-01-23T17:58:38Z) - Extract and Attend: Improving Entity Translation in Neural Machine
Translation [141.7840980565706]
NMTにおけるエンティティ翻訳を強化するための抽出・アテンド手法を提案する。
提案手法は,エンティティの翻訳精度と全体的な翻訳品質の向上に有効である。
論文 参考訳(メタデータ) (2023-06-04T03:05:25Z) - Competency-Aware Neural Machine Translation: Can Machine Translation
Know its Own Translation Quality? [61.866103154161884]
ニューラルマシン翻訳(NMT)は、意識せずに起こる失敗に対してしばしば批判される。
本稿では,従来のNMTを自己推定器で拡張することで,新たな能力認識型NMTを提案する。
提案手法は品質評価において優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2022-11-25T02:39:41Z) - Named Entity Detection and Injection for Direct Speech Translation [28.645529770009247]
我々は、S2Tモデル出力を改善するために、与えられたコンテキストに現れる可能性のある名前付きエンティティの辞書を利用する方法を示す。
実験の結果,S2Tエンコーダ出力から発声中のNEを確実に検出できることがわかった。
実際、現在の検出品質は、人名エラーを31%減らして、翻訳におけるNE精度を向上させるのに十分であることを示す。
論文 参考訳(メタデータ) (2022-10-21T14:16:51Z) - Who Are We Talking About? Handling Person Names in Speech Translation [18.56702596427545]
我々は、ASR/STシステムの出力を分析し、人名転写/翻訳の失敗の原因を特定する。
次に、多言語モデルを作成することで問題を緩和し、それらを共同で書き起こしや翻訳を強制することでSTシステムをさらに改善する。
論文 参考訳(メタデータ) (2022-05-13T16:37:44Z) - DEEP: DEnoising Entity Pre-training for Neural Machine Translation [123.6686940355937]
機械翻訳モデルは通常、トレーニングコーパスで稀な名前付きエンティティの翻訳を貧弱に生成することが示されている。
文中の名前付きエンティティ翻訳精度を向上させるために,大量のモノリンガルデータと知識ベースを利用するDenoising Entity Pre-training法であるDEEPを提案する。
論文 参考訳(メタデータ) (2021-11-14T17:28:09Z) - Is "moby dick" a Whale or a Bird? Named Entities and Terminology in
Speech Translation [13.870736341442841]
NEと用語の翻訳における最先端STシステムの挙動に関する最初の体系的解析を行った。
また、NEと用語で注釈付けされた欧州議会の演説から構築された新しいベンチマークであるNEuRoparl-STをリリースする。
論文 参考訳(メタデータ) (2021-09-15T17:15:31Z) - Deep Multi-Task Learning for Joint Localization, Perception, and
Prediction [68.50217234419922]
本稿では,ローカライズエラー下の最先端の自律性スタックで発生する問題について検討する。
我々は,認識,予測,局所化を共同で行うシステムの設計を行う。
本アーキテクチャでは,両タスク間の計算を再利用し,効率よくローカライズエラーを修正できる。
論文 参考訳(メタデータ) (2021-01-17T17:20:31Z) - Interpretability Analysis for Named Entity Recognition to Understand
System Predictions and How They Can Improve [49.878051587667244]
名前付きエンティティ認識のためのLSTM-CRFアーキテクチャの性能について検討する。
文脈表現はシステムの性能に寄与するが、ハイパフォーマンスを駆動する主な要因は、名前トークン自体を学習することにある。
我々は、コンテキストのみからエンティティタイプを推測する可能性を評価するために、人間アノテーションを登録し、コンテキストのみのシステムによるエラーの大部分に対してエンティティタイプを推論することはできないが、改善の余地はいくつかある。
論文 参考訳(メタデータ) (2020-04-09T14:37:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。