論文の概要: MAS-LitEval : Multi-Agent System for Literary Translation Quality Assessment
- arxiv url: http://arxiv.org/abs/2506.14199v1
- Date: Tue, 17 Jun 2025 05:33:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.34236
- Title: MAS-LitEval : Multi-Agent System for Literary Translation Quality Assessment
- Title(参考訳): MAS-LitEval : 翻訳品質評価のためのマルチエージェントシステム
- Authors: Junghwan Kim, Kieun Park, Sohee Park, Hyunggug Kim, Bongwon Suh,
- Abstract要約: 文学翻訳は、文化的ニュアンスと様式的な要素を保存する必要がある。
BLEUやMETEORといった従来のメトリクスは、語彙重なりに重点を置いているため、評価に失敗する。
言語モデル(LLM)を用いたマルチエージェントシステムMAS-LitEvalを提案する。
- 参考スコア(独自算出の注目度): 5.703909513367545
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Literary translation requires preserving cultural nuances and stylistic elements, which traditional metrics like BLEU and METEOR fail to assess due to their focus on lexical overlap. This oversight neglects the narrative consistency and stylistic fidelity that are crucial for literary works. To address this, we propose MAS-LitEval, a multi-agent system using Large Language Models (LLMs) to evaluate translations based on terminology, narrative, and style. We tested MAS-LitEval on translations of The Little Prince and A Connecticut Yankee in King Arthur's Court, generated by various LLMs, and compared it to traditional metrics. \textbf{MAS-LitEval} outperformed these metrics, with top models scoring up to 0.890 in capturing literary nuances. This work introduces a scalable, nuanced framework for Translation Quality Assessment (TQA), offering a practical tool for translators and researchers.
- Abstract(参考訳): 文学翻訳は、BLEUやMETEORのような伝統的なメトリクスが語彙の重なりに焦点を合わせていないため、文化的ニュアンスや様式的な要素を保存する必要がある。
この監視は、文学作品に不可欠な物語の一貫性と様式的忠実さを無視している。
そこで本稿では,Large Language Models (LLM) を用いたマルチエージェントシステムMAS-LitEvalを提案する。
我々は、アーサー王の宮廷にある『リトル・プリンス』と『コネチカット・ヤンキー』の翻訳でMAS-LitEvalをテストした。
\textbf{MAS-LitEval} はこれらの指標を上回り、上位モデルは文学的なニュアンスを捉えるのに 0.890 のスコアを得た。
この研究は、翻訳者や研究者に実用的なツールを提供する翻訳品質評価(TQA)のためのスケーラブルでニュアンスのあるフレームワークを導入している。
関連論文リスト
- DRT: Deep Reasoning Translation via Long Chain-of-Thought [89.48208612476068]
本稿では,長いCoTをニューラルネットワーク翻訳(MT)に適用する試みであるDRTを紹介する。
まず、既存の文献から模範文や比喩文を含む文を抽出し、その後、長い思考を通してこれらの文を翻訳する多エージェントフレームワークを開発する。
Qwen2.5とLLama-3.1をバックボーンとして使用することで、DRTモデルは機械翻訳中に思考プロセスを学ぶことができる。
論文 参考訳(メタデータ) (2024-12-23T11:55:33Z) - A 2-step Framework for Automated Literary Translation Evaluation: Its Promises and Pitfalls [15.50296318831118]
文芸機械翻訳を評価するための2段階パイプラインの実現可能性を提案し,評価する。
私たちのフレームワークは、文学翻訳に適した細粒度で解釈可能なメトリクスを提供します。
論文 参考訳(メタデータ) (2024-12-02T10:07:01Z) - Large Language Models for Classical Chinese Poetry Translation: Benchmarking, Evaluating, and Improving [43.148203559785095]
印象的な多言語機能を持つ大規模言語モデル(LLM)は、この極端な翻訳要求を達成するための希望の光となるかもしれない。
本稿ではまず,各漢詩にエレガントな翻訳が認められた適切なベンチマーク(PoetMT)を紹介する。
本稿では,GPT-4に基づく新しい測定基準を提案し,現在のLCMがこれらの要求を満たす範囲を評価する。
論文 参考訳(メタデータ) (2024-08-19T12:34:31Z) - (Perhaps) Beyond Human Translation: Harnessing Multi-Agent Collaboration for Translating Ultra-Long Literary Texts [56.7988577327046]
翻訳企業の役割と協調の実践をシミュレートする,新しいマルチエージェントフレームワークであるTransAgentsを紹介する。
本研究は,翻訳品質の向上,特にテキストの長文化におけるマルチエージェント協調の可能性を明らかにするものである。
論文 参考訳(メタデータ) (2024-05-20T05:55:08Z) - On the Limitations of Cross-lingual Encoders as Exposed by
Reference-Free Machine Translation Evaluation [55.02832094101173]
クロスランガルエンコーダの評価は通常、教師付き下流タスクにおけるゼロショットのクロスランガル転送または教師なしのクロスランガル類似性によって行われる。
本稿では、ソーステキストと(低品質な)システム翻訳を直接比較するMT(Reference-free Machine Translation)の評価について述べる。
事前学習したM-BERTとLASERで得られた最先端の言語間セマンティック表現に基づいて,様々なメトリクスを体系的に検討する。
参照なしMT評価において,セマンティックエンコーダとしての性能は低く,その2つの重要な限界を同定する。
論文 参考訳(メタデータ) (2020-05-03T22:10:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。