論文の概要: EffiReasonTrans: RL-Optimized Reasoning for Code Translation
- arxiv url: http://arxiv.org/abs/2510.18863v1
- Date: Tue, 21 Oct 2025 17:55:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:14.121174
- Title: EffiReasonTrans: RL-Optimized Reasoning for Code Translation
- Title(参考訳): EffiReasonTrans:コード翻訳のためのRL最適化推論
- Authors: Yanlin Wang, Rongyi Ou, Yanli Wang, Mingwei Liu, Jiachi Chen, Ensheng Shi, Xilin Liu, Yuchi Ma, Zibin Zheng,
- Abstract要約: EffiReasonTransは、推論レイテンシのバランスを保ちながら翻訳精度を向上させるために設計されたトレーニングフレームワークである。
EffiReasonTransは、生成トークンの数を減らしながら、翻訳精度(ベースモデルと比較して+49.2% CAと+27.8% CodeBLEU)を一貫して改善している。
- 参考スコア(独自算出の注目度): 48.862761776440635
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Code translation is a crucial task in software development and maintenance. While recent advancements in large language models (LLMs) have improved automated code translation accuracy, these gains often come at the cost of increased inference latency, hindering real-world development workflows that involve human-in-the-loop inspection. To address this trade-off, we propose EffiReasonTrans, a training framework designed to improve translation accuracy while balancing inference latency. We first construct a high-quality reasoning-augmented dataset by prompting a stronger language model, DeepSeek-R1, to generate intermediate reasoning and target translations. Each (source code, reasoning, target code) triplet undergoes automated syntax and functionality checks to ensure reliability. Based on this dataset, we employ a two-stage training strategy: supervised fine-tuning on reasoning-augmented samples, followed by reinforcement learning to further enhance accuracy and balance inference latency. We evaluate EffiReasonTrans on six translation pairs. Experimental results show that it consistently improves translation accuracy (up to +49.2% CA and +27.8% CodeBLEU compared to the base model) while reducing the number of generated tokens (up to -19.3%) and lowering inference latency in most cases (up to -29.0%). Ablation studies further confirm the complementary benefits of the two-stage training framework. Additionally, EffiReasonTrans demonstrates improved translation accuracy when integrated into agent-based frameworks. Our code and data are available at https://github.com/DeepSoftwareAnalytics/EffiReasonTrans.
- Abstract(参考訳): コード翻訳は、ソフトウェア開発とメンテナンスにおいて重要なタスクです。
大規模言語モデル(LLM)の最近の進歩は、自動コード翻訳の精度を向上しているが、これらの向上は、推論レイテンシの増加と、実際の開発ワークフローの妨げとなることが多い。
このトレードオフに対処するために,推論遅延のバランスを保ちながら翻訳精度を向上させるためのトレーニングフレームワークであるEffiReasonTransを提案する。
まず、より強力な言語モデルであるDeepSeek-R1を誘導し、中間的推論とターゲット翻訳を生成することによって、高品質な推論拡張データセットを構築する。
それぞれの(ソースコード、推論、ターゲットコード)トリプルトは、自動シンタックスと機能チェックを実行し、信頼性を確保します。
このデータセットに基づいて、推論強化サンプルの微調整を監督し、さらに精度を高め、推論遅延のバランスをとるための強化学習を行う2段階のトレーニング戦略を採用する。
EffiReasonTransを6つの翻訳対で評価した。
実験の結果、翻訳精度(ベースモデルと比較して+49.2% CAと+27.8% CodeBLEU)を一貫して改善し、生成トークンの数(19.3%まで)を減らし、ほとんどの場合(-29.0%まで)推論遅延を減らした。
アブレーション研究は、2段階のトレーニングフレームワークの相補的な利点をさらに確認する。
さらに、EffiReasonTransでは、エージェントベースのフレームワークに統合された場合の翻訳精度が改善されている。
私たちのコードとデータはhttps://github.com/DeepSoftwareAnalytics/EffiReasonTransで公開されています。
関連論文リスト
- Function-to-Style Guidance of LLMs for Code Translation [59.487054943812836]
コード翻訳における大規模言語モデルの性能向上を目的として,F2STransという関数型案内パラダイムを提案する。
提案手法は,(1)高品質なソースターゲットコードペアを用いた翻訳精度を最適化する機能学習という2つの重要な段階から構成される。
我々は,最新のソースコード,広範なテストケース,手動で注釈付き接頭辞翻訳を含む新しいコード翻訳ベンチマークを導入する。
論文 参考訳(メタデータ) (2025-07-15T08:25:02Z) - Enhancing Translation Accuracy of Large Language Models through Continual Pre-Training on Parallel Data [13.587157318352869]
本稿では,並列データに対して,事前学習された大規模言語モデルを継続的に事前学習する2相学習手法を提案する。
日本語と英語と日本語の13種類のテストセットを用いて,これらの手法の評価を行った。
論文 参考訳(メタデータ) (2024-07-03T14:23:36Z) - CTC-based Non-autoregressive Speech Translation [51.37920141751813]
非自己回帰音声翻訳における接続性時間分類の可能性について検討する。
我々は、CTCによって誘導される2つのエンコーダからなるモデルを構築し、ソースおよびターゲットテキストを予測する。
MuST-Cベンチマークの実験では、我々のNASTモデルは平均BLEUスコアが29.5であり、スピードアップは5.67$times$である。
論文 参考訳(メタデータ) (2023-05-27T03:54:09Z) - UZH_CLyp at SemEval-2023 Task 9: Head-First Fine-Tuning and ChatGPT Data
Generation for Cross-Lingual Learning in Tweet Intimacy Prediction [3.1798318618973362]
本稿では,SemEval 2023 Task 9「Multilingual Tweet Intimacy Analysis」に対するUZH_CLypの提出について述べる。
公式なピアソン相関回帰評価尺度により,全10言語で2番目に高い結果を得た。
論文 参考訳(メタデータ) (2023-03-02T12:18:53Z) - DEEP: DEnoising Entity Pre-training for Neural Machine Translation [123.6686940355937]
機械翻訳モデルは通常、トレーニングコーパスで稀な名前付きエンティティの翻訳を貧弱に生成することが示されている。
文中の名前付きエンティティ翻訳精度を向上させるために,大量のモノリンガルデータと知識ベースを利用するDenoising Entity Pre-training法であるDEEPを提案する。
論文 参考訳(メタデータ) (2021-11-14T17:28:09Z) - On the Language Coverage Bias for Neural Machine Translation [81.81456880770762]
言語カバレッジバイアスは、ニューラルネットワーク翻訳(NMT)において重要である。
実験を慎重に設計することにより、トレーニングデータにおける言語カバレッジバイアスの包括的分析を行う。
本稿では,言語カバレッジバイアス問題を軽減するための,シンプルで効果的な2つのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-07T01:55:34Z) - Rejuvenating Low-Frequency Words: Making the Most of Parallel Data in
Non-Autoregressive Translation [98.11249019844281]
知識蒸留(KD)は、非自己回帰翻訳(NAT)モデルを訓練するための合成データを構築するために一般的に用いられる。
低周波対象語に対するアライメントを向上するために,逆KDを提案する。
その結果,提案手法は翻訳品質を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2021-06-02T02:41:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。