論文の概要: Translation via Annotation: A Computational Study of Translating Classical Chinese into Japanese
- arxiv url: http://arxiv.org/abs/2511.05239v1
- Date: Fri, 07 Nov 2025 13:46:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.77774
- Title: Translation via Annotation: A Computational Study of Translating Classical Chinese into Japanese
- Title(参考訳): 注釈による翻訳:古典中国語を日本語に翻訳する計算的研究
- Authors: Zilong Li, Jie Cao,
- Abstract要約: 古代人は各文字に注釈を付けて漢文を日本語に翻訳した。
このプロセスをシーケンスタギングタスクとして抽象化し、それらを現代の言語技術に適合させる。
低リソース環境下では、中国語のNLPタスクの導入は、シーケンスタグ付けタスクのトレーニングに促進効果があることが示される。
- 参考スコア(独自算出の注目度): 5.799589603302489
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ancient people translated classical Chinese into Japanese by annotating around each character. We abstract this process as sequence tagging tasks and fit them into modern language technologies. The research of this annotation and translation system is a facing low-resource problem. We release this problem by introducing a LLM-based annotation pipeline and construct a new dataset from digitalized open-source translation data. We show that under the low-resource setting, introducing auxiliary Chinese NLP tasks has a promoting effect on the training of sequence tagging tasks. We also evaluate the performance of large language models. They achieve high scores in direct machine translation, but they are confused when being asked to annotate characters. Our method could work as a supplement of LLMs.
- Abstract(参考訳): 古代人は各文字に注釈を付けて漢文を日本語に翻訳した。
このプロセスをシーケンスタギングタスクとして抽象化し、それらを現代の言語技術に適合させる。
このアノテーションと翻訳システムの研究は、低リソースの問題に直面している。
LLMベースのアノテーションパイプラインを導入し,デジタル化されたオープンソース翻訳データから新たなデータセットを構築することで,この問題を解消する。
低リソース環境下では、中国語のNLPタスクの導入は、シーケンスタグ付けタスクのトレーニングに促進効果があることが示される。
また,大規模言語モデルの性能評価を行った。
直接機械翻訳では高いスコアを得るが、アノテート文字を頼まれると混乱する。
我々の方法はLSMの補足として機能する。
関連論文リスト
- Compositional Translation: A Novel LLM-based Approach for Low-resource Machine Translation [20.704153242284114]
機械翻訳は、翻訳する文と意味的に類似している場合に、文脈内例の恩恵を受けることが示されている。
本稿では,LLMに基づく新しい翻訳パラダイムである合成翻訳を提案する。
私たちの直感は、これらの短いフレーズは本質的に翻訳が簡単で、関連する例と簡単に一致するので、このアプローチは翻訳を改善するべきだということです。
論文 参考訳(メタデータ) (2025-03-06T15:37:31Z) - Lost in Literalism: How Supervised Training Shapes Translationese in LLMs [51.04435855143767]
大規模言語モデル(LLM)は機械翻訳において顕著な成功を収めた。
しかし、過度にリテラルと不自然な翻訳を特徴とする翻訳は、依然として永続的な課題である。
我々は、黄金の基準を磨き、不自然なトレーニングインスタンスをフィルタリングするなど、これらのバイアスを軽減する方法を導入する。
論文 参考訳(メタデータ) (2025-03-06T12:14:45Z) - Understanding In-Context Machine Translation for Low-Resource Languages: A Case Study on Manchu [53.437954702561065]
In-context machine translation (MT) with large language model (LLMs) は低リソースMTにおいて有望な手法である。
本研究は,辞書,文法書,検索した並列例などの資源の種類が翻訳性能に与える影響を系統的に検討する。
結果から,良質な辞書や優れた並列例は有用であり,文法はほとんど役に立たないことが明らかとなった。
論文 参考訳(メタデータ) (2025-02-17T14:53:49Z) - Enhancing Entertainment Translation for Indian Languages using Adaptive Context, Style and LLMs [3.55026004901472]
本稿では,現在のセッションの文脈とスタイルを推定するアルゴリズムを導入し,これらの推定値を用いてLLM(Large Language Model)を誘導し,高品質な翻訳を生成するプロンプトを生成する。
本手法はLLMに依存しない言語であり,汎用ツールである。
論文 参考訳(メタデータ) (2024-12-29T11:33:51Z) - TasTe: Teaching Large Language Models to Translate through Self-Reflection [82.83958470745381]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて顕著な性能を示した。
本稿では,自己回帰を通した翻訳を行うTasTeフレームワークを提案する。
WMT22ベンチマークにおける4つの言語方向の評価結果から,既存の手法と比較して,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-06-12T17:21:21Z) - Contextual Refinement of Translations: Large Language Models for Sentence and Document-Level Post-Editing [12.843274390224853]
大規模言語モデル(LLM)は、様々な自然言語処理タスクでかなりの成功を収めている。
ニューラルネットワーク翻訳における最先端性能は,まだ達成できていない。
直接翻訳者ではなく,自動編集者 (APE) としてLLMを適用することを提案する。
論文 参考訳(メタデータ) (2023-10-23T12:22:15Z) - TIM: Teaching Large Language Models to Translate with Comparison [78.66926087162672]
本稿では,LLMに翻訳学習を教えるために,サンプルを用いた新しいフレームワークを提案する。
我々のアプローチは、正しい翻訳例と間違った翻訳例をモデルに提示し、好みの損失を使ってモデルの学習をガイドすることである。
本研究は,翻訳タスクのための微調整LDMの新しい視点を提供し,高品質な翻訳を実現するための有望なソリューションを提供する。
論文 参考訳(メタデータ) (2023-07-10T08:15:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。