論文の概要: Enhancing Entity Aware Machine Translation with Multi-task Learning
- arxiv url: http://arxiv.org/abs/2506.18318v1
- Date: Mon, 23 Jun 2025 06:05:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.874994
- Title: Enhancing Entity Aware Machine Translation with Multi-task Learning
- Title(参考訳): マルチタスク学習によるエンティティ認識機械翻訳の強化
- Authors: An Trieu, Phuong Nguyen, Minh Le Nguyen,
- Abstract要約: 本稿では,エンティティ認識と機械翻訳という2つのサブタスクの性能を最適化するために,マルチタスク学習を適用する手法を提案する。
結果と分析は、SemEval 2025コンペティションのタスク2のオーガナイザが提供したデータセット上で行われる。
- 参考スコア(独自算出の注目度): 2.9611509639584312
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Entity-aware machine translation (EAMT) is a complicated task in natural language processing due to not only the shortage of translation data related to the entities needed to translate but also the complexity in the context needed to process while translating those entities. In this paper, we propose a method that applies multi-task learning to optimize the performance of the two subtasks named entity recognition and machine translation, which improves the final performance of the Entity-aware machine translation task. The result and analysis are performed on the dataset provided by the organizer of Task 2 of the SemEval 2025 competition.
- Abstract(参考訳): エンティティ対応機械翻訳(EAMT)は、翻訳に必要なエンティティに関連する翻訳データが不足しているだけでなく、それらのエンティティを翻訳しながら処理するために必要なコンテキストの複雑さのため、自然言語処理において複雑なタスクである。
本稿では,エンティティ認識と機械翻訳という2つのサブタスクの性能を最適化するために,マルチタスク学習を適用する手法を提案する。
結果と分析は、SemEval 2025コンペティションのタスク2のオーガナイザが提供したデータセット上で行われる。
関連論文リスト
- CHILL at SemEval-2025 Task 2: You Can't Just Throw Entities and Hope -- Make Your LLM to Get Them Right [3.326216109891044]
エンティティ・アウェア・マシン翻訳(EA-MT)におけるSemEval 2025 Task 2のアプローチについて述べる。
提案システムは,大規模言語モデル(LLM)を用いた検索型拡張生成(RAG)と反復型自己精製手法の2つの主要なアプローチを組み合わせることで,名前付きエンティティの翻訳精度を向上させることを目的としている。
このシステムの特徴は自己評価機構であり、LLMはエンティティ翻訳の精度と全体的な翻訳品質の2つの重要な基準に基づいて、自身の翻訳を評価する。
論文 参考訳(メタデータ) (2025-06-16T03:26:10Z) - HausaNLP at SemEval-2025 Task 2: Entity-Aware Fine-tuning vs. Prompt Engineering in Entity-Aware Machine Translation [2.17880235420183]
本稿では,エンティティ対応機械翻訳(EA-MT)における共有タスクであるSemEval 2025 Task 2について述べる。
このタスクの目的は、英語の文をターゲット言語に正確に翻訳できる翻訳モデルを開発することである。
本稿では、我々が採用したさまざまなシステムについて述べ、その結果を詳述し、実験から得られた洞察について議論する。
論文 参考訳(メタデータ) (2025-03-25T14:29:43Z) - Towards Cross-Cultural Machine Translation with Retrieval-Augmented Generation from Multilingual Knowledge Graphs [18.84670051328337]
XC-Translateは、機械翻訳のための最初の大規模な手作業によるベンチマークである。
KG-MTは、多言語知識グラフからの情報をニューラルネットワーク翻訳モデルに統合する、新しいエンドツーエンド手法である。
論文 参考訳(メタデータ) (2024-10-17T21:56:22Z) - TasTe: Teaching Large Language Models to Translate through Self-Reflection [82.83958470745381]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて顕著な性能を示した。
本稿では,自己回帰を通した翻訳を行うTasTeフレームワークを提案する。
WMT22ベンチマークにおける4つの言語方向の評価結果から,既存の手法と比較して,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-06-12T17:21:21Z) - Towards Effective Disambiguation for Machine Translation with Large
Language Models [65.80775710657672]
我々は「あいまいな文」を翻訳する大規模言語モデルの能力について研究する。
実験の結果,提案手法はDeepLやNLLBといった最先端システムと5つの言語方向のうち4つで一致し,性能を向上できることがわかった。
論文 参考訳(メタデータ) (2023-09-20T22:22:52Z) - Unified Model Learning for Various Neural Machine Translation [63.320005222549646]
既存の機械翻訳(NMT)研究は主にデータセット固有のモデルの開発に焦点を当てている。
我々は,NMT(UMLNMT)のための統一モデル学習モデル(Unified Model Learning for NMT)を提案する。
OurNMTは、データセット固有のモデルよりも大幅に改善され、モデルデプロイメントコストが大幅に削減される。
論文 参考訳(メタデータ) (2023-05-04T12:21:52Z) - Improving End-to-End Text Image Translation From the Auxiliary Text
Translation Task [26.046624228278528]
本稿では,テキスト翻訳を補助タスクとするエンドツーエンドモデルを訓練する,新しいテキスト翻訳拡張テキスト画像翻訳を提案する。
モデルパラメータとマルチタスクのトレーニングを共有することで,大規模テキスト並列コーパスを最大限に活用することができる。
論文 参考訳(メタデータ) (2022-10-08T02:35:45Z) - DEEP: DEnoising Entity Pre-training for Neural Machine Translation [123.6686940355937]
機械翻訳モデルは通常、トレーニングコーパスで稀な名前付きエンティティの翻訳を貧弱に生成することが示されている。
文中の名前付きエンティティ翻訳精度を向上させるために,大量のモノリンガルデータと知識ベースを利用するDenoising Entity Pre-training法であるDEEPを提案する。
論文 参考訳(メタデータ) (2021-11-14T17:28:09Z) - Computer Assisted Translation with Neural Quality Estimation and
Automatic Post-Editing [18.192546537421673]
本稿では,機械翻訳出力の品質推定と自動編集のためのエンドツーエンドのディープラーニングフレームワークを提案する。
我々のゴールは、誤り訂正の提案を提供することであり、解釈可能なモデルにより、人間の翻訳者の負担を軽減することである。
論文 参考訳(メタデータ) (2020-09-19T00:29:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。