論文の概要: Extending CREAMT: Leveraging Large Language Models for Literary Translation Post-Editing
- arxiv url: http://arxiv.org/abs/2504.03045v1
- Date: Thu, 03 Apr 2025 21:48:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-07 14:48:36.669569
- Title: Extending CREAMT: Leveraging Large Language Models for Literary Translation Post-Editing
- Title(参考訳): CREAMTの拡張: 翻訳後編集のための大規模言語モデルを活用する
- Authors: Antonio Castaldo, Sheila Castilho, Joss Moorkens, Johanna Monti,
- Abstract要約: 本研究では,大規模言語モデル(LLM)による後編集文体翻訳の実現可能性について検討する。
以上の結果から,LLM生成後翻訳は人間の翻訳に比べて編集時間を大幅に短縮し,創造性も向上した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Post-editing machine translation (MT) for creative texts, such as literature, requires balancing efficiency with the preservation of creativity and style. While neural MT systems struggle with these challenges, large language models (LLMs) offer improved capabilities for context-aware and creative translation. This study evaluates the feasibility of post-editing literary translations generated by LLMs. Using a custom research tool, we collaborated with professional literary translators to analyze editing time, quality, and creativity. Our results indicate that post-editing LLM-generated translations significantly reduces editing time compared to human translation while maintaining a similar level of creativity. The minimal difference in creativity between PE and MT, combined with substantial productivity gains, suggests that LLMs may effectively support literary translators working with high-resource languages.
- Abstract(参考訳): 文学などの創作テキストのための後編集機械翻訳(MT)は、創造性とスタイルの保存と効率のバランスをとる必要がある。
ニューラルMTシステムはこれらの課題に対処する一方で、大規模言語モデル(LLM)は文脈認識と創造的翻訳の能力を改善する。
本研究は,LLMによる後編集文体翻訳の実現可能性について検討した。
編集時間,品質,クリエイティビティを分析するため,専門的な文芸翻訳者と共同で研究を行った。
以上の結果から,LLM生成後翻訳は人間の翻訳に比べて編集時間を大幅に短縮し,創造性も向上した。
PEとMTのクリエイティビティの最小限の差は、生産性の向上と相まって、LLMは高リソース言語を扱う文芸翻訳者を効果的にサポートする可能性があることを示唆している。
関連論文リスト
- Speech Translation Refinement using Large Language Models [8.602429274223693]
本稿では,大規模言語モデル(LLM)が,共同改良プロセスを導入することにより,音声翻訳の性能を向上する方法について検討する。
LLMによる音声翻訳(ST)と自動音声認識(ASR)の併用により,STモデルの性能は大幅に向上した。
7つの翻訳タスクを含む MuST-C と CoVoST 2 データセットの実験結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2025-01-25T05:32:42Z) - Exploring Large Language Models for Translating Romanian Computational Problems into English [0.0]
本研究では,ロバストな大規模言語モデル(LLM)が,十分に構造化されたプロンプトを与えられた場合,あまり一般的でない言語を翻訳する際に,その性能を維持あるいは向上できることを示す。
OpenRoLLM, Llama 3.1 8B, Llama 3.2 3B, GPT-4o など, 複数の LLM の翻訳手法について検討した。
論文 参考訳(メタデータ) (2025-01-09T22:17:44Z) - LLM-based Translation Inference with Iterative Bilingual Understanding [52.46978502902928]
大規模言語モデル(LLM)の言語間機能に基づいた,新しい反復的バイリンガル理解翻訳法を提案する。
LLMの言語横断的能力により、ソース言語とターゲット言語を別々にコンテキスト理解することが可能になる。
提案したIBUTは、いくつかの強力な比較法より優れている。
論文 参考訳(メタデータ) (2024-10-16T13:21:46Z) - (Perhaps) Beyond Human Translation: Harnessing Multi-Agent Collaboration for Translating Ultra-Long Literary Texts [52.18246881218829]
本稿では,大言語モデル(LLM)をベースとした多エージェントフレームワークを,TransAgentsという企業として実装した。
本システムの有効性を評価するため,モノリンガル・ヒューマン・プライス(MHP)とバイリンガル・LLM・プライス(BLP)の2つの革新的な評価戦略を提案する。
論文 参考訳(メタデータ) (2024-05-20T05:55:08Z) - Building Accurate Translation-Tailored LLMs with Language Aware Instruction Tuning [57.323716555996114]
オフターゲット翻訳は、特に低リソース言語では未解決の問題である。
最近の研究は、翻訳命令の機能を強調するために高度なプロンプト戦略を設計するか、LLMの文脈内学習能力を活用している。
本研究では,LLMの命令追従能力(特に翻訳方向)を向上させるために,2段階の微調整アルゴリズムを設計する。
論文 参考訳(メタデータ) (2024-03-21T13:47:40Z) - MT-PATCHER: Selective and Extendable Knowledge Distillation from Large Language Models for Machine Translation [61.65537912700187]
機械翻訳(MT)分野における言語モデル(LLM)の強みを実証した。
我々は,LLMから既存のMTモデルに選択的かつ包括的かつ積極的に知識を伝達するMT-Patcherというフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-14T16:07:39Z) - Machine Translation with Large Language Models: Prompt Engineering for
Persian, English, and Russian Directions [0.0]
生成型大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクにおいて、例外的な習熟性を示している。
我々は,ペルシャ語,英語,ロシア語の言語間組み合わせに着目した2つの普及促進手法とその組み合わせについて調査を行った。
論文 参考訳(メタデータ) (2024-01-16T15:16:34Z) - Speech Translation with Large Language Models: An Industrial Practice [64.5419534101104]
LLM-STは,事前学習型大言語モデル(LLM)に基づいて構築された,新規で効果的な音声翻訳モデルである。
大規模言語モデル(LLM)を音声エンコーダと統合し、マルチタスクの命令チューニングを利用することで、LLM-STは正確なタイムスタンプと翻訳を生成することができる。
英語と中国語のデータセットの厳密な実験を通じて,LLM-STの異常な性能を示す。
論文 参考訳(メタデータ) (2023-12-21T05:32:49Z) - Improving Machine Translation with Large Language Models: A Preliminary Study with Cooperative Decoding [73.32763904267186]
大きな言語モデル(LLM)は、優れた翻訳品質を達成する可能性を示す。
我々は,NMTシステムを事前翻訳モデルとして扱うCooperative Decoding(CoDec)と,MT指向LLMを補足解として提案する。
論文 参考訳(メタデータ) (2023-11-06T03:41:57Z) - Creativity in translation: machine translation as a constraint for
literary texts [3.3453601632404073]
本稿では、機械翻訳(MT)、後編集(PE)、援助なし翻訳(HT)の3つのモダリティを用いた、クルト・ヴォネグートによる英語からカタルーニャ語、オランダ語への短い物語の翻訳に関する研究結果を紹介する。
文学データに基づいてトレーニングされたニューラルMTシステムは、現在、創造的な翻訳に必要な機能を持っていない。
さらに重要なことは、MTを使って生の出力を後処理すると、翻訳者の創造性が制限され、結果として翻訳の質が低下し、出版に適さないことだ、と専門家は述べている。
論文 参考訳(メタデータ) (2022-04-12T09:27:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。