論文の概要: It Takes Two: A Dual Stage Approach for Terminology-Aware Translation
- arxiv url: http://arxiv.org/abs/2511.07461v1
- Date: Wed, 12 Nov 2025 01:00:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.340064
- Title: It Takes Two: A Dual Stage Approach for Terminology-Aware Translation
- Title(参考訳): テミノロジーを意識した翻訳の2段階的アプローチ
- Authors: Akshat Singh Jaswal,
- Abstract要約: 本稿では,用語制約付き機械翻訳のための新しい2段階アーキテクチャであるDuTermを紹介する。
本システムでは,大規模合成データの微調整により適応した用語認識型NMTモデルと,後編集のためのプロンプトベースLSMを組み合わせた。
LLMによるフレキシブル・コンテクスト駆動の用語処理は厳密な制約執行よりも高品質な翻訳を一貫して得ることを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces DuTerm, a novel two-stage architecture for terminology-constrained machine translation. Our system combines a terminology-aware NMT model, adapted via fine-tuning on large-scale synthetic data, with a prompt-based LLM for post-editing. The LLM stage refines NMT output and enforces terminology adherence. We evaluate DuTerm on English-to German, English-to-Spanish, and English-to-Russian with the WMT 2025 Terminology Shared Task corpus. We demonstrate that flexible, context-driven terminology handling by the LLM consistently yields higher quality translations than strict constraint enforcement. Our results highlight a critical trade-off, revealing that an LLM's work best for high-quality translation as context-driven mutators rather than generators.
- Abstract(参考訳): 本稿では,用語制約付き機械翻訳のための新しい2段階アーキテクチャであるDuTermを紹介する。
本システムでは,大規模合成データの微調整により適応した用語認識型NMTモデルと,後編集のためのプロンプトベースLSMを組み合わせた。
LLMステージはNMT出力を洗練し、用語順守を強制する。
WMT 2025 Terminology Shared Task corpus を用いて、英語からドイツ語、英語、スペイン語、ロシア語へのデュタームの評価を行った。
LLMによるフレキシブル・コンテクスト駆動の用語処理は厳密な制約執行よりも高品質な翻訳を一貫して得ることを示した。
この結果から,ジェネレータではなく,文脈駆動型ミュータとして高品質な翻訳を行う上で,LLMの作業が最適であることが示唆された。
関連論文リスト
- LLM-BT-Terms: Back-Translation as a Framework for Terminology Standardization and Dynamic Semantic Embedding [2.685668802278156]
LLM-BTは、大規模言語モデル(LLM)を利用したバックトランスレーションフレームワークである。
言語間セマンティックアライメントによる用語検証と標準化を自動化するように設計されている。
BLEUスコアと項レベルの精度は、強い言語間の堅牢性を示し、BLEUスコアは0.45を超え、ポルトガル語の項精度は100%に達する。
論文 参考訳(メタデータ) (2025-06-09T19:39:09Z) - KIT's Offline Speech Translation and Instruction Following Submission for IWSLT 2025 [56.61209412965054]
本稿では、カールスルーエ工科大学のオフラインSTとインストラクションフォロー(IF)トラックへの提出について紹介する。
文書レベルの文脈を持つLLMを用いて出力を融合した複数の自動音声認識システムを用いたパイプラインを提案する。
IFトラックでは,音声エンコーダとLLMを統合し,幅広い命令追従タスクを実行するエンド・ツー・エンド・モデルを開発した。
論文 参考訳(メタデータ) (2025-05-19T12:21:29Z) - TasTe: Teaching Large Language Models to Translate through Self-Reflection [82.83958470745381]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて顕著な性能を示した。
本稿では,自己回帰を通した翻訳を行うTasTeフレームワークを提案する。
WMT22ベンチマークにおける4つの言語方向の評価結果から,既存の手法と比較して,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-06-12T17:21:21Z) - SiLLM: Large Language Models for Simultaneous Machine Translation [41.303764786790616]
同時機械翻訳(SiMT)は、原文を読みながら翻訳を生成する。
既存のSiMT手法では、ポリシーを同時に決定し、翻訳を生成するために単一のモデルを採用している。
我々は2つのサブタスクを別々のエージェントに委譲するSiLLMを提案する。
論文 参考訳(メタデータ) (2024-02-20T14:23:34Z) - Adapting Large Language Models for Document-Level Machine Translation [46.370862171452444]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクを大幅に進歩させた。
近年の研究では、中程度のLLMはタスク固有の微調整後、より大きなLLMよりも優れていることが示されている。
本研究では,特定の言語対に対する文書レベルの機械翻訳(DocMT)にLLMを適用することに焦点を当てた。
論文 参考訳(メタデータ) (2024-01-12T09:29:13Z) - Domain Terminology Integration into Machine Translation: Leveraging
Large Language Models [3.178046741931973]
本稿では,WMT 2023 におけるドイツ語-英語(DE-EN),英語-チェコ語(EN-CS),中国語-英語(ZH-EN)言語対に対する提案手法について述べる。
この課題は、技術用語を正確に翻訳するシステムを開発するために参加者に挑戦することで機械翻訳(MT)を進めることを目的としている。
論文 参考訳(メタデータ) (2023-10-22T23:25:28Z) - Terminology-Aware Translation with Constrained Decoding and Large
Language Model Prompting [11.264272119913311]
我々は、WMT 2023用語翻訳タスクを提出する。
私たちは、ドメインに依存しない、最小限の手作業を必要とするトランスレーション-then-refineアプローチを採用しています。
その結果,我々の用語認識モデルは,効率的に用語を組み込むことができることがわかった。
論文 参考訳(メタデータ) (2023-10-09T16:08:23Z) - Towards Effective Disambiguation for Machine Translation with Large
Language Models [65.80775710657672]
我々は「あいまいな文」を翻訳する大規模言語モデルの能力について研究する。
実験の結果,提案手法はDeepLやNLLBといった最先端システムと5つの言語方向のうち4つで一致し,性能を向上できることがわかった。
論文 参考訳(メタデータ) (2023-09-20T22:22:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。