論文の概要: Algorithm-Based Pipeline for Reliable and Intent-Preserving Code Translation with LLMs
- arxiv url: http://arxiv.org/abs/2602.16106v1
- Date: Wed, 18 Feb 2026 00:34:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.477033
- Title: Algorithm-Based Pipeline for Reliable and Intent-Preserving Code Translation with LLMs
- Title(参考訳): LLMを用いた信頼・保存コード翻訳のためのアルゴリズムベースパイプライン
- Authors: Shahriar Rumi Dipto, Saikat Mondal, Chanchal K. Roy,
- Abstract要約: 直接一発翻訳は、しばしばプログラム意図を保存するのに失敗し、制御フローのエラー、型ハンドリング、I/O動作を引き起こす。
本稿では,言語ニュートラルな中間仕様を導入し,これらの詳細をコード生成前にキャプチャするアルゴリズムベースのパイプラインを提案する。
- 参考スコア(独自算出の注目度): 3.4257278503723576
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Code translation, the automatic conversion of programs between languages, is a growing use case for Large Language Models (LLMs). However, direct one-shot translation often fails to preserve program intent, leading to errors in control flow, type handling, and I/O behavior. We propose an algorithm-based pipeline that introduces a language-neutral intermediate specification to capture these details before code generation. This study empirically evaluates the extent to which structured planning can improve translation accuracy and reliability relative to direct translation. We conduct an automated paired experiment - direct and algorithm-based to translate between Python and Java using five widely used LLMs on the Avatar and CodeNet datasets. For each combination (model, dataset, approach, and direction), we compile and execute the translated program and run the tests provided. We record compilation results, runtime behavior, timeouts (e.g., infinite loop), and test outcomes. We compute accuracy from these tests, counting a translation as correct only if it compiles, runs without exceptions or timeouts, and passes all tests. We then map every failed compile-time and runtime case to a unified, language-aware taxonomy and compare subtype frequencies between the direct and algorithm-based approaches. Overall, the Algorithm-based approach increases micro-average accuracy from 67.7% to 78.5% (10.8% increase). It eliminates lexical and token errors by 100%, reduces incomplete constructs by 72.7%, and structural and declaration issues by 61.1%. It also substantially lowers runtime dependency and entry-point failures by 78.4%. These results demonstrate that algorithm-based pipelines enable more reliable, intent-preserving code translation, providing a foundation for robust multilingual programming assistants.
- Abstract(参考訳): 言語間のプログラムの自動変換であるコード翻訳は、LLM(Large Language Models)のユースケースが増えている。
しかし、直接一発翻訳は、しばしばプログラムの意図を保たず、制御フロー、型ハンドリング、I/O動作のエラーを引き起こす。
本稿では,言語ニュートラルな中間仕様を導入し,これらの詳細をコード生成前にキャプチャするアルゴリズムベースのパイプラインを提案する。
本研究は,構造化計画が直接翻訳と比較して翻訳精度と信頼性を向上できる範囲を実証的に評価する。
AvatarとCodeNetのデータセットで広く使われている5つのLLMを使用して、PythonとJava間の直接的およびアルゴリズムベースの自動ペア化実験を行います。
各組み合わせ(モデル、データセット、アプローチ、方向)について、翻訳されたプログラムをコンパイルして実行し、提供されたテストを実行します。
コンパイル結果、実行時の動作、タイムアウト(例えば無限ループ)、テスト結果を記録します。
これらのテストから精度を計算し、コンパイル時にのみ翻訳を正しくカウントし、例外やタイムアウトなしで実行し、すべてのテストをパスします。
次に、失敗したコンパイル時間と実行時のすべてのケースを統一された言語対応の分類にマッピングし、ダイレクトとアルゴリズムベースのアプローチのサブタイプ周波数を比較します。
アルゴリズムに基づくアプローチは、マイクロ平均精度を67.7%から78.5%(10.8%)に向上させる。
語彙やトークンの誤りを100%減らし、不完全な構成を72.7%減らし、構造や宣言の問題を61.1%減らした。
また、実行時の依存性とエントリポイント障害を78.4%削減する。
これらの結果は、アルゴリズムベースのパイプラインにより、より信頼性が高く、意図を保存可能なコード翻訳が可能になり、堅牢な多言語プログラミングアシスタントの基盤を提供することを示す。
関連論文リスト
- Anka: A Domain-Specific Language for Reliable LLM Code Generation [0.0]
大規模言語モデル(LLM)は、複雑な多段階プログラミングタスクの体系的なエラーを示す。
明示的で制約のある構文で設計されたデータ変換パイプライン用のドメイン固有言語()であるAnkaを紹介します。
Ankaは100のベンチマーク問題に対して99.9%のパース成功と95.8%のタスク精度を達成した。
論文 参考訳(メタデータ) (2025-12-29T05:28:17Z) - Enhancing LLMs in Long Code Translation through Instrumentation and Program State Alignment [0.0]
コード翻訳は、機能を保ちながらプログラミング言語間でコードを変換することを目的としている。
大規模言語モデル(LLM)の最近の進歩はコード翻訳を改善しているが、課題は残る。
論文 参考訳(メタデータ) (2025-04-02T13:55:29Z) - EquiBench: Benchmarking Large Language Models' Reasoning about Program Semantics via Equivalence Checking [58.15568681219339]
大規模言語モデル(LLM)を評価するための新しいベンチマークであるEquiBenchを紹介する。
このタスクは、プログラムのセマンティクスについて推論するモデルの能力を直接テストする。
19の最先端LCMを評価し、最も難しいカテゴリでは、最高の精度は63.8%と76.2%であり、50%のランダムベースラインよりわずかに高い。
論文 参考訳(メタデータ) (2025-02-18T02:54:25Z) - Guided Debugging of Auto-Translated Code Using Differential Testing [9.897793495754225]
tHinterは自動翻訳コードで翻訳エラーを見つけるツールである。
ファジィを使用して、翻訳されたコードを徹底的に探索する多様なテストケースを生成する。
次に、カバレッジ情報と差分テストの実行結果から翻訳エラーをピンポイントするアルゴリズムに依存する。
論文 参考訳(メタデータ) (2025-01-16T11:27:25Z) - Multilingual Contrastive Decoding via Language-Agnostic Layers Skipping [60.458273797431836]
対照的なレイヤ(DoLa)によるデコーディングは、大規模言語モデルの生成品質を改善するために設計されている。
このアプローチは英語以外のタスクではうまくいきません。
モデルの前方通過における言語遷移に関する従来の解釈可能性の研究から着想を得て,改良されたコントラスト復号アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-07-15T15:14:01Z) - LEVER: Learning to Verify Language-to-Code Generation with Execution [64.36459105535]
本稿では,プログラムの実行結果の検証を学習することで,言語からコードへの生成を改善するシンプルな手法であるLEVERを提案する。
具体的には、LLMからサンプリングされたプログラムが、自然言語入力、プログラム自体とその実行結果に基づいて正しいか否かを判定するために、検証者を訓練する。
LEVER はベースコード LLMs (4.6% から 10.9% まで) を継続的に改善し、それらすべてに対して新しい最先端の結果を得る。
論文 参考訳(メタデータ) (2023-02-16T18:23:22Z) - Interactive Code Generation via Test-Driven User-Intent Formalization [60.90035204567797]
大きな言語モデル(LLM)は、非公式な自然言語(NL)の意図からコードを生成する。
自然言語は曖昧であり、形式的な意味論が欠けているため、正確性の概念を定義するのは難しい。
言語に依存しない抽象アルゴリズムと具体的な実装TiCoderについて述べる。
論文 参考訳(メタデータ) (2022-08-11T17:41:08Z) - Natural Language to Code Translation with Execution [82.52142893010563]
実行結果-プログラム選択のための最小ベイズリスク復号化。
そこで本研究では,自然言語からコードへのタスクにおいて,事前訓練されたコードモデルの性能を向上することを示す。
論文 参考訳(メタデータ) (2022-04-25T06:06:08Z) - Leveraging Automated Unit Tests for Unsupervised Code Translation [34.84910520660154]
本稿では,無効翻訳をフィルタリングする自動単体テストシステムを提案する。
このフィルタデータセットを用いて教師なしモデルの微調整を行うことで,翻訳のノイズを著しく低減できることがわかった。
特に、Java $to$ Python と Python $to$ C++ は、それぞれ 16% と 24% よりも優れています。
論文 参考訳(メタデータ) (2021-10-13T15:08:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。