論文の概要: Please Translate Again: Two Simple Experiments on Whether Human-Like Reasoning Helps Translation
- arxiv url: http://arxiv.org/abs/2506.04521v1
- Date: Thu, 05 Jun 2025 00:04:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.465266
- Title: Please Translate Again: Two Simple Experiments on Whether Human-Like Reasoning Helps Translation
- Title(参考訳): 人間的な推論が翻訳に役立つかどうか、簡単な2つの実験
- Authors: Di Wu, Seth Aycock, Christof Monz,
- Abstract要約: 大きな言語モデル(LLM)は、多くのタスクに対して強力な推論能力を示し、しばしばChain-of-Thought (CoT)推論を通じてタスクを明示的に分解する。
textit Translating Step-by-stepcitepbriakou2024 Translatingは、例えば、LLMによる翻訳の分解と洗練を伴うマルチステッププロンプトを導入している。
以上の結果から, LLM の帰納的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的
- 参考スコア(独自算出の注目度): 7.376832526909754
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) demonstrate strong reasoning capabilities for many tasks, often by explicitly decomposing the task via Chain-of-Thought (CoT) reasoning. Recent work on LLM-based translation designs hand-crafted prompts to decompose translation, or trains models to incorporate intermediate steps.~\textit{Translating Step-by-step}~\citep{briakou2024translating}, for instance, introduces a multi-step prompt with decomposition and refinement of translation with LLMs, which achieved state-of-the-art results on WMT24. In this work, we scrutinise this strategy's effectiveness. Empirically, we find no clear evidence that performance gains stem from explicitly decomposing the translation process, at least for the models on test; and we show that simply prompting LLMs to ``translate again'' yields even better results than human-like step-by-step prompting. Our analysis does not rule out the role of reasoning, but instead invites future work exploring the factors for CoT's effectiveness in the context of translation.
- Abstract(参考訳): 大きな言語モデル(LLM)は、多くのタスクに対して強力な推論能力を示し、しばしばChain-of-Thought (CoT)推論を通じてタスクを明示的に分解する。
LLMをベースとした翻訳設計に関する最近の研究は、翻訳を分解する手作りのプロンプトや、中間ステップを組み込むためのモデルを訓練している。
例えば、 ~\textit{translating Step-by-step}~\citep{briakou2024translating} は、WMT24 で最先端の結果を得た LLM による翻訳の分解と洗練を伴う多段階のプロンプトを導入している。
本研究では,この戦略の有効性について検討する。
実験では,少なくとも実験中のモデルにおいて,性能向上が翻訳過程を明示的に分解することに起因するという明確な証拠は見つからず,単にLSMを「再翻訳」させると,人間的なステップバイステップのプロンプトよりもさらによい結果が得られることを示す。
我々の分析は、推論の役割を除外するのではなく、翻訳の文脈におけるCoTの有効性の要因を探究する将来の研究を招いている。
関連論文リスト
- TasTe: Teaching Large Language Models to Translate through Self-Reflection [82.83958470745381]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて顕著な性能を示した。
本稿では,自己回帰を通した翻訳を行うTasTeフレームワークを提案する。
WMT22ベンチマークにおける4つの言語方向の評価結果から,既存の手法と比較して,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-06-12T17:21:21Z) - Building Accurate Translation-Tailored LLMs with Language Aware Instruction Tuning [57.323716555996114]
オフターゲット翻訳は、特に低リソース言語では未解決の問題である。
最近の研究は、翻訳命令の機能を強調するために高度なプロンプト戦略を設計するか、LLMの文脈内学習能力を活用している。
本研究では,LLMの命令追従能力(特に翻訳方向)を向上させるために,2段階の微調整アルゴリズムを設計する。
論文 参考訳(メタデータ) (2024-03-21T13:47:40Z) - Adapting Large Language Models for Document-Level Machine Translation [46.370862171452444]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクを大幅に進歩させた。
近年の研究では、中程度のLLMはタスク固有の微調整後、より大きなLLMよりも優れていることが示されている。
本研究では,特定の言語対に対する文書レベルの機械翻訳(DocMT)にLLMを適用することに焦点を当てた。
論文 参考訳(メタデータ) (2024-01-12T09:29:13Z) - Contextual Refinement of Translations: Large Language Models for Sentence and Document-Level Post-Editing [12.843274390224853]
大規模言語モデル(LLM)は、様々な自然言語処理タスクでかなりの成功を収めている。
ニューラルネットワーク翻訳における最先端性能は,まだ達成できていない。
直接翻訳者ではなく,自動編集者 (APE) としてLLMを適用することを提案する。
論文 参考訳(メタデータ) (2023-10-23T12:22:15Z) - Multilingual Machine Translation with Large Language Models: Empirical Results and Analysis [103.89753784762445]
大規模言語モデル(LLM)は多言語機械翻訳(MMT)の処理において顕著な可能性を示した。
本稿では, MMT における LLM の利点と課題を体系的に検討する。
また,ChatGPTとGPT-4を含む8つのLLMを徹底的に評価した。
論文 参考訳(メタデータ) (2023-04-10T15:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。