論文の概要: TransLaw: Benchmarking Large Language Models in Multi-Agent Simulation of the Collaborative Translation
- arxiv url: http://arxiv.org/abs/2507.00875v1
- Date: Tue, 01 Jul 2025 15:39:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:59.708235
- Title: TransLaw: Benchmarking Large Language Models in Multi-Agent Simulation of the Collaborative Translation
- Title(参考訳): TransLaw: 協調翻訳のマルチエージェントシミュレーションにおける大規模言語モデルのベンチマーク
- Authors: Xi Xuan, King-kui Sin, Yufei Zhou, Chunyu Kit,
- Abstract要約: TransLawは、実世界の香港の事例法翻訳のために実装された新しいマルチエージェントフレームワークである。
翻訳者(Translator)、アノテーション(Annotator)、Proofreader(Proofreader)という3つの専門エージェントを使って、法律的な意味において高精度な翻訳を共同で作成している。
- 参考スコア(独自算出の注目度): 1.112686067941444
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-agent systems empowered by large language models (LLMs) have demonstrated remarkable capabilities in a wide range of downstream applications, including machine translation. However, the potential of LLMs in translating Hong Kong legal judgments remains uncertain due to challenges such as intricate legal terminology, culturally embedded nuances, and strict linguistic structures. In this work, we introduce TransLaw, a novel multi-agent framework implemented for real-world Hong Kong case law translation. It employs three specialized agents, namely, Translator, Annotator, and Proofreader, to collaboratively produce translations for high accuracy in legal meaning, appropriateness in style, and adequate coherence and cohesion in structure. This framework supports customizable LLM configurations and achieves tremendous cost reduction compared to professional human translation services. We evaluated its performance using 13 open-source and commercial LLMs as agents and obtained interesting findings, including that it surpasses GPT-4o in legal semantic accuracy, structural coherence, and stylistic fidelity, yet trails human experts in contextualizing complex terminology and stylistic naturalness. Our platform website is available at CityUHK, and our bilingual judgment corpus used for the evaluation is available at Hugging Face.
- Abstract(参考訳): 大規模言語モデル(LLM)によって強化されたマルチエージェントシステムは、機械翻訳を含む幅広い下流アプリケーションにおいて顕著な機能を示した。
しかし、複雑な法用語、文化的に埋め込まれたニュアンス、厳格な言語構造といった課題のために、香港の法的判断を翻訳するLLMの可能性は依然として不明である。
本研究では,実世界の香港の事例法翻訳用に実装された新しいマルチエージェントフレームワークであるTransLawを紹介する。
翻訳者(Translator)、アノテーション(Annotator)、Proofreader(Proofreader)という3つの専門的なエージェントを使って、法律的意味の高精度な翻訳、スタイルの適切性、構造における適切なコヒーレンスと凝集を共同で作成している。
このフレームワークは、カスタマイズ可能なLLM構成をサポートし、プロの翻訳サービスに比べて大幅なコスト削減を実現している。
我々は13のオープンソースおよび商用LLMをエージェントとして評価し、法的意味論的精度、構造的コヒーレンス、スタイル的忠実度においてGPT-4oを上回りながら、複雑な用語とスタイル的自然性の文脈化において人間の専門家に追随するなど、興味深い結果を得た。
私たちのプラットフォームウェブサイトはCityUHKで利用可能であり、評価に使用されるバイリンガル判断コーパスはHugging Faceで利用可能です。
関連論文リスト
- Collaboration is all you need: LLM Assisted Safe Code Translation [4.3764649156831235]
UniTranslatorは、複数のコンパクトLLM間の協調的な取り組みとしてコード翻訳を再想像するフレームワークである。
特殊なエージェントのインタラクションを編成することによって、UniTranslatorは、より大きなモノリシックモデルに匹敵する精度と効率のレベルを達成する。
論文 参考訳(メタデータ) (2025-03-14T09:42:07Z) - SwiLTra-Bench: The Swiss Legal Translation Benchmark [10.2713063405843]
SwiLTra-Benchは180Kを超えるスイスの法翻訳ペアの総合ベンチマークである。
体系的な評価により、フロンティアモデルは全ての文書タイプで優れた翻訳性能が得られることが示された。
SwiLTra-Judgeは、人間の専門家による評価に最適な特殊なLCM評価システムである。
論文 参考訳(メタデータ) (2025-03-03T10:10:30Z) - CRAT: A Multi-Agent Framework for Causality-Enhanced Reflective and Retrieval-Augmented Translation with Large Language Models [59.8529196670565]
CRATは、RAGと因果強化自己回帰を利用して翻訳課題に対処する、新しいマルチエージェント翻訳フレームワークである。
以上の結果からCRATは翻訳精度を著しく向上させ,特に文脈に敏感な単語や語彙の出現に寄与することが示唆された。
論文 参考訳(メタデータ) (2024-10-28T14:29:11Z) - LLM-based Translation Inference with Iterative Bilingual Understanding [52.46978502902928]
大規模言語モデル(LLM)の言語間機能に基づいた,新しい反復的バイリンガル理解翻訳法を提案する。
LLMの言語横断的能力により、ソース言語とターゲット言語を別々にコンテキスト理解することが可能になる。
提案したIBUTは、いくつかの強力な比較法より優れている。
論文 参考訳(メタデータ) (2024-10-16T13:21:46Z) - (Perhaps) Beyond Human Translation: Harnessing Multi-Agent Collaboration for Translating Ultra-Long Literary Texts [56.7988577327046]
翻訳企業の役割と協調の実践をシミュレートする,新しいマルチエージェントフレームワークであるTransAgentsを紹介する。
本研究は,翻訳品質の向上,特にテキストの長文化におけるマルチエージェント協調の可能性を明らかにするものである。
論文 参考訳(メタデータ) (2024-05-20T05:55:08Z) - Eliciting the Translation Ability of Large Language Models via Multilingual Finetuning with Translation Instructions [68.01449013641532]
大規模事前学習言語モデル(LLM)は多言語翻訳において強力な能力を示している。
本稿では,多言語事前学習言語モデルであるXGLM-7Bを微調整して,多言語翻訳を行う方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T12:00:24Z) - Evaluating Multilingual Text Encoders for Unsupervised Cross-Lingual
Retrieval [51.60862829942932]
本稿では,言語間文書・文検索タスクにおける最先端多言語エンコーダの適合性に着目した体系的実証研究を行う。
文レベルのCLIRでは、最先端のパフォーマンスが達成できることを実証する。
しかし、ピーク性能は、汎用の多言語テキストエンコーダをオフ・ザ・シェルフで使うのではなく、文の理解タスクにさらに特化したバリエーションに依存している。
論文 参考訳(メタデータ) (2021-01-21T00:15:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。