論文の概要: MatchFixAgent: Language-Agnostic Autonomous Repository-Level Code Translation Validation and Repair
- arxiv url: http://arxiv.org/abs/2509.16187v1
- Date: Fri, 19 Sep 2025 17:46:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 18:18:11.263506
- Title: MatchFixAgent: Language-Agnostic Autonomous Repository-Level Code Translation Validation and Repair
- Title(参考訳): MatchFixAgent: 言語に依存しない自律リポジトリ-レベルコードの翻訳検証と修復
- Authors: Ali Reza Ibrahimzada, Brandon Paulsen, Reyhaneh Jabbarvand, Joey Dodds, Daniel Kroening,
- Abstract要約: コード変換はソースコードをあるプログラミング言語(PL)から別のプログラミング言語に変換する。
既存の自動検証と修復アプローチは、高いエンジニアリングオーバーヘッドのため、多くのPLに一般化するのに苦労している。
我々は,大言語モデル(LLM)に基づく,等価性検証と翻訳の修復のためのPLに依存しないフレームワークであるMatchFixAgentを開発した。
- 参考スコア(独自算出の注目度): 5.451770256943523
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Code translation transforms source code from one programming language (PL) to another. Validating the functional equivalence of translation and repairing, if necessary, are critical steps in code translation. Existing automated validation and repair approaches struggle to generalize to many PLs due to high engineering overhead, and they rely on existing and often inadequate test suites, which results in false claims of equivalence and ineffective translation repair. We develop MatchFixAgent, a large language model (LLM)-based, PL-agnostic framework for equivalence validation and repair of translations. MatchFixAgent features a multi-agent architecture that divides equivalence validation into several sub-tasks to ensure thorough and consistent semantic analysis of the translation. Then it feeds this analysis to test agent to write and execute tests. Upon observing a test failure, the repair agent attempts to fix the translation bug. The final (in)equivalence decision is made by the verdict agent, considering semantic analyses and test execution results. We compare MatchFixAgent's validation and repair results with four repository-level code translation techniques. We use 2,219 translation pairs from their artifacts, which cover 6 PL pairs, and are collected from 24 GitHub projects totaling over 900K lines of code. Our results demonstrate that MatchFixAgent produces (in)equivalence verdicts for 99.2% of translation pairs, with the same equivalence validation result as prior work on 72.8% of them. When MatchFixAgent's result disagrees with prior work, we find that 60.7% of the time MatchFixAgent's result is actually correct. In addition, we show that MatchFixAgent can repair 50.6% of inequivalent translation, compared to prior work's 18.5%. This demonstrates that MatchFixAgent is far more adaptable to many PL pairs than prior work, while producing highly accurate validation results.
- Abstract(参考訳): コード変換はソースコードをあるプログラミング言語(PL)から別のプログラミング言語に変換する。
翻訳と修復の機能的等価性を検証することは、コード翻訳における重要なステップである。
既存の自動検証と修復アプローチは、高いエンジニアリングオーバーヘッドのために多くのPLに一般化するのに苦労しており、それらは既存の、しばしば不十分なテストスイートに依存しており、これは等価性の誤った主張と非効率な翻訳修復をもたらす。
我々は,大言語モデル(LLM)に基づく,等価性検証と翻訳の修復のためのPLに依存しないフレームワークであるMatchFixAgentを開発した。
MatchFixAgentは、同値検証をいくつかのサブタスクに分割して、翻訳の完全かつ一貫したセマンティック分析を保証するマルチエージェントアーキテクチャを備えている。
そして、この分析結果をテストエージェントに送って、テストを書き、実行します。
検査失敗を観察すると、修復剤は翻訳バグの修正を試みる。
最終的な(同値な)決定は、意味分析とテスト実行結果を考慮して、評定エージェントによって行われる。
MatchFixAgentの検証と修復結果を4つのリポジトリレベルのコード変換技術と比較する。
それらのアーティファクトから2,219の変換ペアを使用し、6つのPLペアをカバーし、合計900万行のコードからなる24のGitHubプロジェクトから収集されています。
以上の結果から,MatchFixAgentは99.2%の翻訳対に対して等価な検証を行い,72.8%の先行研究と等価な検証結果を得た。
MatchFixAgentの結果が以前の結果と一致しない場合、MatchFixAgentの結果の60.7%が実際に正しいことが分かる。
さらに、MatchFixAgentは前作の18.5%に比べて50.6%の非等価翻訳を修復できることを示した。
これは、MatchFixAgentが以前の作業よりも多くのPLペアに対してはるかに適応可能であることを示し、高い精度の検証結果を生成する。
関連論文リスト
- VulAgent: Hypothesis-Validation based Multi-Agent Vulnerability Detection [55.957275374847484]
VulAgentは仮説検証に基づくマルチエージェント脆弱性検出フレームワークである。
セマンティクスに敏感なマルチビュー検出パイプラインを実装しており、それぞれが特定の分析の観点から一致している。
平均して、VulAgentは全体的な精度を6.6%改善し、脆弱性のある固定されたコードペアの正確な識別率を最大450%向上させ、偽陽性率を約36%削減する。
論文 参考訳(メタデータ) (2025-09-15T02:25:38Z) - RepoTransAgent: Multi-Agent LLM Framework for Repository-Aware Code Translation [6.2036957709296665]
RepoTransAgentはリポジトリ対応コード翻訳のための新しいマルチエージェントフレームワークである。
RepoTransAgentを6つの人気のあるオープンソースプロジェクトから数百のJava-C#の翻訳ペアで評価する。
論文 参考訳(メタデータ) (2025-08-25T06:56:22Z) - Guided Debugging of Auto-Translated Code Using Differential Testing [9.897793495754225]
tHinterは自動翻訳コードで翻訳エラーを見つけるツールである。
ファジィを使用して、翻訳されたコードを徹底的に探索する多様なテストケースを生成する。
次に、カバレッジ情報と差分テストの実行結果から翻訳エラーをピンポイントするアルゴリズムに依存する。
論文 参考訳(メタデータ) (2025-01-16T11:27:25Z) - AlphaTrans: A Neuro-Symbolic Compositional Approach for Repository-Level Code Translation and Validation [5.269923665485903]
リポジトリレベルのコード翻訳を自動化するニューロシンボリックアプローチであるAlphaTransを提案する。
AlphaTransを利用して,836,8575,2719>クラス,メソッド,テストからなる10の実世界のオープンソースプロジェクトを翻訳しました。
論文 参考訳(メタデータ) (2024-10-31T16:46:52Z) - Improving LLM Reasoning through Scaling Inference Computation with Collaborative Verification [52.095460362197336]
大規模言語モデル(LLM)は一貫性と正確な推論に苦しむ。
LLMは、主に正しいソリューションに基づいて訓練され、エラーを検出して学習する能力を減らす。
本稿では,CoT(Chain-of-Thought)とPoT(Program-of-Thought)を組み合わせた新しい協調手法を提案する。
論文 参考訳(メタデータ) (2024-10-05T05:21:48Z) - On the Resilience of LLM-Based Multi-Agent Collaboration with Faulty Agents [58.79302663733703]
大規模言語モデルに基づくマルチエージェントシステムは、専門家エージェントの協力により、様々なタスクにまたがる優れた能力を示している。
不器用なエージェントや悪意のあるエージェントが与える影響 - システム全体のパフォーマンスにおいて、頻繁にタスクでエラーを犯すものは、いまだに過小評価されていない。
本稿では,下流タスクにおける障害要因下での各種システム構造のレジリエンスについて検討する。
論文 参考訳(メタデータ) (2024-08-02T03:25:20Z) - Machine Translation Models are Zero-Shot Detectors of Translation Direction [46.41883195574249]
平行テキストの翻訳方向を検出することは、機械翻訳訓練や評価に応用できるが、盗作や偽造の主張を解消するといった法医学的応用もある。
本研究では,翻訳文や機械翻訳文でよく知られた単純化効果によって動機付けられた,$p(texttranslation|text Origin)>p(textgenic|texttranslation)$という単純な仮説に基づいて,翻訳方向検出のための教師なしアプローチを検討する。
論文 参考訳(メタデータ) (2024-01-12T18:59:02Z) - Break-It-Fix-It: Unsupervised Learning for Program Repair [90.55497679266442]
我々は2つの重要なアイデアを持つ新しいトレーニング手法であるBreak-It-Fix-It (BIFI)を提案する。
批判者は、実際の悪い入力でフィクスダーの出力をチェックし、トレーニングデータに良い(固定された)出力を追加する。
これらのアイデアに基づいて、よりペア化されたデータを生成するために、ブレーカとフィクスチャを同時に使用しながら、繰り返し更新する。
BIFIは既存のメソッドより優れており、GitHub-Pythonで90.5%、DeepFixで71.7%の修正精度がある。
論文 参考訳(メタデータ) (2021-06-11T20:31:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。