論文の概要: Reflective Translation: Improving Low-Resource Machine Translation via Structured Self-Reflection
- arxiv url: http://arxiv.org/abs/2601.19871v1
- Date: Tue, 27 Jan 2026 18:37:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.43405
- Title: Reflective Translation: Improving Low-Resource Machine Translation via Structured Self-Reflection
- Title(参考訳): リフレクティブ翻訳:構造化自己回帰による低リソース機械翻訳の改善
- Authors: Nicholas Cheng,
- Abstract要約: isiZuluやisiXhosaのような低リソース言語は、限られた並列データと言語資源のために機械翻訳において永続的な課題に直面している。
大規模言語モデルの最近の進歩は、自己回帰がモデルを批判し、自身の出力を修正させ、推論品質と事実整合性を改善することを示唆している。
本稿では、モデルが初期翻訳を生成し、構造化された自己批判を生成し、このリフレクションを用いて洗練された翻訳を生成するプロンプトベースのフレームワークであるリフレクティブ翻訳を紹介する。
- 参考スコア(独自算出の注目度): 0.15229257192293197
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Low-resource languages such as isiZulu and isiXhosa face persistent challenges in machine translation due to limited parallel data and linguistic resources. Recent advances in large language models suggest that self-reflection, prompting a model to critique and revise its own outputs, can improve reasoning quality and factual consistency. Building on this idea, this paper introduces Reflective Translation, a prompt-based framework in which a model generates an initial translation, produces a structured self-critique, and then uses this reflection to generate a refined translation. The approach is evaluated on English-isiZulu and English-isiXhosa translation using OPUS-100 and NTREX-African, across multiple prompting strategies and confidence thresholds. Results show consistent improvements in both BLEU and COMET scores between first- and second-pass translations, with average gains of up to +0.22 BLEU and +0.18 COMET. Statistical significance testing using paired nonparametric tests confirms that these improvements are robust. The proposed method is model-agnostic, requires no fine-tuning, and introduces a reflection-augmented dataset that can support future supervised or analysis-driven work. These findings demonstrate that structured self-reflection is a practical and effective mechanism for improving translation quality in low-resource settings.
- Abstract(参考訳): isiZuluやisiXhosaのような低リソース言語は、限られた並列データと言語資源のために機械翻訳において永続的な課題に直面している。
大規模言語モデルの最近の進歩は、自己回帰がモデルを批判し、自身の出力を修正させ、推論品質と事実整合性を改善することを示唆している。
このアイデアに基づいて、モデルが初期翻訳を生成し、構造化された自己批判を生成し、このリフレクションを用いて洗練された翻訳を生成するプロンプトベースのフレームワークであるリフレクティブトランスフォーメーション(Reflective Translation)を導入する。
本手法は,OPUS-100とNTREX-Africanを用いた英語-isiZuluおよび英語-isiXhosa翻訳に基づいて,複数のプロンプト戦略と信頼しきい値を用いて評価した。
その結果、BLEUとCOMETのスコアは1回目と2回目の両方で一貫した改善が見られ、平均ゲインは+0.22 BLEUと+0.18 COMETである。
ペアの非パラメトリックテストを用いた統計的意義試験は、これらの改善が堅牢であることを確認する。
提案手法はモデルに依存しず,微調整を必要とせず,将来の教師付き作業や分析駆動作業をサポートするリフレクション強化データセットを導入している。
これらの結果から,構造化自己回帰は低リソース環境における翻訳品質を向上させるための実用的で効果的なメカニズムであることが示唆された。
関連論文リスト
- Asm2SrcEval: Evaluating Large Language Models for Assembly-to-Source Code Translation [4.45354703148321]
アセンブリ・トゥ・ソースのコード翻訳はリバースエンジニアリング、サイバーセキュリティ、ソフトウェアメンテナンスにおいて重要なタスクである。
本稿では,アセンブリ・トゥ・ソース・トランスフォーメーションにおける5つの最先端大規模言語モデルの包括的評価について述べる。
論文 参考訳(メタデータ) (2025-11-28T12:40:30Z) - LANPO: Bootstrapping Language and Numerical Feedback for Reinforcement Learning in LLMs [73.27182315028021]
LANPOは、フィードバックの役割をきれいに分離するフレームワークである。
我々の研究は、歴史体験をLLM RLループに統合する堅牢な方法を提供し、より効果的でデータ効率のよい学習エージェントを作成します。
論文 参考訳(メタデータ) (2025-10-18T15:51:19Z) - Self-Improvement in Language Models: The Sharpening Mechanism [70.9248553790022]
我々は、レンズを通して自己改善の能力について、新たな視点を提供する。
言語モデルは、正しい応答を生成する場合よりも、応答品質の検証が優れているという観察に感銘を受けて、後学習において、モデル自体を検証対象として、自己改善を形式化する。
SFTとRLHFに基づく自己改善アルゴリズムの2つの自然ファミリーを解析する。
論文 参考訳(メタデータ) (2024-12-02T20:24:17Z) - LLM-based Translation Inference with Iterative Bilingual Understanding [52.46978502902928]
大規模言語モデル(LLM)の言語間機能に基づいた,新しい反復的バイリンガル理解翻訳法を提案する。
LLMの言語横断的能力により、ソース言語とターゲット言語を別々にコンテキスト理解することが可能になる。
提案したIBUTは、いくつかの強力な比較法より優れている。
論文 参考訳(メタデータ) (2024-10-16T13:21:46Z) - DUAL-REFLECT: Enhancing Large Language Models for Reflective Translation through Dual Learning Feedback Mechanisms [43.148203559785095]
自己回帰によって強化された大規模言語モデル(LLM)は機械翻訳において有望な性能を達成した。
既存の自己回帰法には効果的なフィードバック情報がなく、翻訳性能が制限されている。
本稿では,翻訳タスクの二重学習を利用して効果的なフィードバックを提供するREFLECTフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-11T13:10:39Z) - The Power of Question Translation Training in Multilingual Reasoning: Broadened Scope and Deepened Insights [108.40766216456413]
大規模言語モデルの英語と非英語のパフォーマンスのギャップを埋めるための質問アライメントフレームワークを提案する。
実験結果から、さまざまな推論シナリオ、モデルファミリー、サイズにわたって、多言語のパフォーマンスを向上できることが示された。
我々は、表現空間、生成された応答とデータスケールを分析し、質問翻訳訓練がLLM内の言語アライメントをどのように強化するかを明らかにする。
論文 参考訳(メタデータ) (2024-05-02T14:49:50Z) - Context-Aware Machine Translation with Source Coreference Explanation [26.336947440529713]
本稿では,入力中のコア参照の特徴を予測し,翻訳のための意思決定を説明するモデルを提案する。
我々は、WMT文書レベルの翻訳タスクにおいて、英語-ドイツ語データセット、英語-ロシア語データセット、多言語TEDトークデータセットの評価を行った。
論文 参考訳(メタデータ) (2024-04-30T12:41:00Z) - Non-Autoregressive Neural Machine Translation: A Call for Clarity [3.1447111126465]
我々は、非自己回帰的翻訳モデルを改善するために提案されたいくつかの手法を再検討する。
我々は,長文予測やCTCに基づくアーキテクチャ変種を用いて,強力なベースラインを確立するための新たな洞察を提供する。
4つの翻訳タスクに対してsareBLEUを用いて,標準化されたBLEU,chrF++,TERスコアをコントリビュートする。
論文 参考訳(メタデータ) (2022-05-21T12:15:22Z) - Understanding and Mitigating the Uncertainty in Zero-Shot Translation [92.25357943169601]
ゼロショット翻訳の不確実性の観点から、オフターゲット問題を理解し、緩和することを目的としている。
そこで本研究では,モデルトレーニングのためのトレーニングデータを認知するための,軽量かつ補完的な2つのアプローチを提案する。
提案手法は,強いMNMTベースライン上でのゼロショット翻訳の性能を著しく向上させる。
論文 参考訳(メタデータ) (2022-05-20T10:29:46Z) - Distributionally Robust Multilingual Machine Translation [94.51866646879337]
本稿では,分散的ロバストな最適化に基づくMNMT(Multilingual Neural Machine Translation)の新しい学習目標を提案する。
この目的を,反復的最適応答方式を用いて,大規模翻訳コーパスに対して実用的に最適化する方法を示す。
本手法は,多対一の翻訳設定と多対多の翻訳設定の両方において,平均と言語毎のパフォーマンスにおいて,強いベースライン法より一貫して優れる。
論文 参考訳(メタデータ) (2021-09-09T03:48:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。