論文の概要: Enhancing LLM-based Code Translation in Repository Context via Triple Knowledge-Augmented
- arxiv url: http://arxiv.org/abs/2503.18305v1
- Date: Mon, 24 Mar 2025 03:10:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:37:59.481914
- Title: Enhancing LLM-based Code Translation in Repository Context via Triple Knowledge-Augmented
- Title(参考訳): 3つの知識を付加したレポジトリコンテキストにおけるLLMに基づくコード翻訳の強化
- Authors: Guangsheng Ou, Mingwei Liu, Yuxuan Chen, Xueying Du, Shengbo Wang, Zekai Zhang, Xin Peng, Zibin Zheng,
- Abstract要約: 大規模言語モデル(LLM)は、リポジトリレベルのコンテキストなしで関数レベルのコード変換でうまく振る舞っている。
我々は,3つの知識を付加したK-Transを提案し,レポジトリコンテキスト下でのLLMの翻訳品質を向上させる。
実験の結果、K-Transは、CodeBLEUのpass@1と0.138の相対的な改善により、以前の研究に適合したベースラインを19.4%/40.2%で大幅に上回っている。
- 参考スコア(独自算出の注目度): 25.812942624520694
- License:
- Abstract: Large language models (LLMs) have behaved well in function-level code translation without repository-level context. However, the performance of LLMs in repository-level context code translation remains suboptimal due to complex dependencies and context, hindering their adoption in industrial settings. In this work, we propose a novel LLM-based code translation technique K-Trans, which leverages triple knowledge augmentation to enhance LLM's translation quality under repository context in real-world software development. First, K-Trans constructs a translation knowledge base by extracting relevant information from target-language codebases, the repository being translated, and prior translation results. Second, for each function to be translated, K-Trans retrieves relevant triple knowledge, including target-language code samples, dependency usage examples, and successful translation function pairs, serving as references to enhance LLM for translation. Third, K-Trans constructs a knowledge-augmented translation prompt using the retrieved triple knowledge and employs LLMs to generate the translated code while preserving repository context. It further leverages LLMs for self-debugging, enhancing translation correctness. The experiments show that K-Trans substantially outperforms the baseline adapted from previous work by 19.4%/40.2% relative improvement in pass@1 and 0.138 in CodeBLEU. It is important to note that the results also demonstrate that each knowledge significantly contributes to K-Trans's effectiveness in handling repository-level context code translation, with dependency usage examples making the most notable contribution. Moreover, as the self-evolution process progresses, the knowledge base continuously enhances the LLM's performance across various aspects of the repository-level code translation.
- Abstract(参考訳): 大規模言語モデル(LLM)は、リポジトリレベルのコンテキストなしで関数レベルのコード変換でうまく振る舞っている。
しかし、リポジトリレベルのコンテキストコード変換におけるLLMのパフォーマンスは、複雑な依存関係とコンテキストのため、サブ最適であり続けており、産業環境での採用を妨げている。
本研究では,実世界のソフトウェア開発において,LLMのリポジトリ環境下での翻訳品質を向上させるために,三重知識拡張を活用した新しいLLMベースのコード翻訳手法K-Transを提案する。
まず、K-Transは、ターゲット言語コードベース、翻訳対象リポジトリ、事前翻訳結果から関連情報を抽出し、翻訳知識ベースを構築する。
第二に、各関数を翻訳するために、K-Transは、ターゲット言語コードサンプル、依存性使用例、そして成功した翻訳関数ペアを含む関連する3つの知識を取得し、翻訳のためのLLMを強化するリファレンスとして機能する。
第三に、K-Transは検索した3つの知識を用いて知識を付加した翻訳プロンプトを構築し、レポジトリコンテキストを保存しながら翻訳コードを生成する。
さらにLDMを自己デバッグに利用し、翻訳の正確性を高める。
実験の結果、K-Trans は CodeBLEU の pass@1 と 0.138 の相対的な改善を 19.4%/40.2% に改善した。
この結果は、各知識がリポジトリレベルのコンテキストコード変換の処理におけるK-Transの有効性に大きく寄与していることも示しており、依存性の使用例が最も顕著な貢献をしている点にも注意が必要だ。
さらに、自己進化プロセスが進むにつれて、知識ベースはリポジトリレベルのコード翻訳の様々な側面にわたってLLMのパフォーマンスを継続的に向上させます。
関連論文リスト
- I Can't Share Code, but I need Translation -- An Empirical Study on Code Translation through Federated LLM [3.9373541926236766]
本研究は、参加者が効率の良いコード翻訳のためのFedLLMを共同開発できることを実証する。
この結果から,FedLLMはコード翻訳に協調的なアプローチを提供し,将来的な研究の方向性となる可能性が示唆された。
論文 参考訳(メタデータ) (2025-01-10T05:43:36Z) - RepoTransBench: A Real-World Benchmark for Repository-Level Code Translation [44.856816446807265]
リポジトリレベルのコード変換(Repository-level code translation)とは、コードリポジトリ全体をあるプログラミング言語から別の言語に翻訳することを指す。
以前のベンチマークでは、コードスニペット、関数、ファイルレベルのコード変換のいずれかに焦点を当てた、きめ細かいサンプルが提供されていた。
自動実行テストスイートを備えた実世界のリポジトリレベルのコード翻訳ベンチマークであるRepoTransBenchを提案する。
論文 参考訳(メタデータ) (2024-12-23T17:52:10Z) - Repository-level Code Translation Benchmark Targeting Rust [28.25765853736366]
Rustをターゲットにした375のタスクからなる、最初のリポジトリレベルのコード変換ベンチマークを紹介します。
このベンチマークを用いて、4つの最先端の大規模言語モデル(LLM)について検討する。
その結果,LCMは単純なタスクに比べて,リポジトリレベルでの翻訳性能が著しく低下(41.5%-56.2% Pass@1 drop of GPT-4)していることが判明した。
論文 参考訳(メタデータ) (2024-11-21T10:00:52Z) - InterTrans: Leveraging Transitive Intermediate Translations to Enhance LLM-based Code Translation [9.655135415596414]
コード翻訳は、あるプログラムをあるプログラミング言語(PL)から別のプログラミング言語に変換することを目的としている。
近年の研究では、大規模言語モデル(LLM)のような高度な技術でさえもタスクに苦戦していることが示されている。
LLMベースの自動コード翻訳手法であるInterTransを導入する。
論文 参考訳(メタデータ) (2024-11-01T22:31:32Z) - LLM-based Translation Inference with Iterative Bilingual Understanding [52.46978502902928]
大規模言語モデル(LLM)の言語間機能に基づいた,新しい反復的バイリンガル理解翻訳法を提案する。
LLMの言語横断的能力により、ソース言語とターゲット言語を別々にコンテキスト理解することが可能になる。
提案したIBUTは、いくつかの強力な比較法より優れている。
論文 参考訳(メタデータ) (2024-10-16T13:21:46Z) - Enhancing Code Translation in Language Models with Few-Shot Learning via Retrieval-Augmented Generation [1.9726019592585404]
本稿では、Few-Shot Learningによるコード翻訳を強化する新しい手法を提案する。
既存のコード翻訳のレポジトリを活用することで、最も関連性の高い例を動的に検索し、新しいコードセグメントを翻訳する際にモデルをガイドします。
Retrieval-Augmented Generationに基づく本手法は,翻訳品質を大幅に向上させる。
論文 参考訳(メタデータ) (2024-07-29T00:41:48Z) - TasTe: Teaching Large Language Models to Translate through Self-Reflection [82.83958470745381]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて顕著な性能を示した。
本稿では,自己回帰を通した翻訳を行うTasTeフレームワークを提案する。
WMT22ベンチマークにおける4つの言語方向の評価結果から,既存の手法と比較して,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-06-12T17:21:21Z) - Why Not Transform Chat Large Language Models to Non-English? [57.16587777261422]
非英語データの不足は、非英語大言語モデル(LLM)の開発を制限する
TransLLMは、転送問題を変換チェーン・オブ・シント(translation chain of-of- Thought)でいくつかの一般的なサブタスクに分割する。
本手法は,シングルターンデータのみを用いて,マルチターンベンチマークMT-benchにおいて,強いベースラインとChatGPTより優れる。
論文 参考訳(メタデータ) (2024-05-22T18:53:25Z) - Building Accurate Translation-Tailored LLMs with Language Aware Instruction Tuning [57.323716555996114]
オフターゲット翻訳は、特に低リソース言語では未解決の問題である。
最近の研究は、翻訳命令の機能を強調するために高度なプロンプト戦略を設計するか、LLMの文脈内学習能力を活用している。
本研究では,LLMの命令追従能力(特に翻訳方向)を向上させるために,2段階の微調整アルゴリズムを設計する。
論文 参考訳(メタデータ) (2024-03-21T13:47:40Z) - Multilingual Machine Translation with Large Language Models: Empirical Results and Analysis [103.89753784762445]
大規模言語モデル(LLM)は多言語機械翻訳(MMT)の処理において顕著な可能性を示した。
本稿では, MMT における LLM の利点と課題を体系的に検討する。
また,ChatGPTとGPT-4を含む8つのLLMを徹底的に評価した。
論文 参考訳(メタデータ) (2023-04-10T15:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。