論文の概要: What a diff makes: automating code migration with large language models
- arxiv url: http://arxiv.org/abs/2511.00160v1
- Date: Fri, 31 Oct 2025 18:08:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.647749
- Title: What a diff makes: automating code migration with large language models
- Title(参考訳): 差分とは何か: 大きな言語モデルでコードマイグレーションを自動化する
- Authors: Katherine A. Rosenfeld, Cliff C. Kerr, Jessica Lundin,
- Abstract要約: 差分を含むコンテキストは LLM のアウトオブボックスに対する性能を著しく向上させることができることを示す。
この問題領域のさらなる開発を支援するデータセットと,コードベースのマイグレーションを支援するオープンソースPythonパッケージであるAIMigrateを提供しています。
STARSIMバージョン間のTYPHOIDSIMの実際の移行において、AIMigrateは、1回の実行で必要な変更の65%を正しく識別し、複数の実行で80%まで増加し、変更の47%が完璧に生成された。
- 参考スコア(独自算出の注目度): 0.15293427903448018
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern software programs are built on stacks that are often undergoing changes that introduce updates and improvements, but may also break any project that depends upon them. In this paper we explore the use of Large Language Models (LLMs) for code migration, specifically the problem of maintaining compatibility with a dependency as it undergoes major and minor semantic version changes. We demonstrate, using metrics such as test coverage and change comparisons, that contexts containing diffs can significantly improve performance against out of the box LLMs and, in some cases, perform better than using code. We provide a dataset to assist in further development of this problem area, as well as an open-source Python package, AIMigrate, that can be used to assist with migrating code bases. In a real-world migration of TYPHOIDSIM between STARSIM versions, AIMigrate correctly identified 65% of required changes in a single run, increasing to 80% with multiple runs, with 47% of changes generated perfectly.
- Abstract(参考訳): 現代のソフトウェアプログラムは、更新や改善をもたらすことが多いスタック上に構築されているが、それに依存するプロジェクトを壊すこともある。
本稿では,コードマイグレーションにおけるLLM(Large Language Models)の利用について検討する。
テストカバレッジや変更比較などのメトリクスを用いることで、差分を含むコンテキストは、LLMに対するパフォーマンスを大幅に向上し、場合によっては、コードを使用するよりもパフォーマンスが向上することを示した。
この問題領域のさらなる開発を支援するデータセットと,コードベースのマイグレーションを支援するオープンソースPythonパッケージであるAIMigrateを提供しています。
STARSIMバージョン間のTYPHOIDSIMの実際の移行において、AIMigrateは、1回の実行で必要な変更の65%を正しく識別し、複数の実行で80%まで増加し、変更の47%が完璧に生成された。
関連論文リスト
- Automatic Qiskit Code Refactoring Using Large Language Models [39.71511919246829]
大規模言語モデル(LLM)を用いたQiskit符号の新しい手法を提案する。
まず、公式のQiskitドキュメントのさまざまなソースから、マイグレーションシナリオの分類を抽出することから始めます。
この分類法は、元のPythonソースコードとともに、LLMへの入力として提供され、コード内の移行シナリオのインスタンスを識別する。
論文 参考訳(メタデータ) (2025-06-17T14:00:48Z) - SwingArena: Competitive Programming Arena for Long-context GitHub Issue Solving [90.32201622392137]
We present SwingArena, a competitive evaluation framework for Large Language Models (LLMs)。
従来の静的ベンチマークとは異なり、SwingArenaはLLMをイテレーションとして組み合わせて、テストケースを作成し、継続的インテグレーション(CI)パイプラインを通じてパッチを検証するパッチとレビュアーを生成することで、ソフトウェアのコラボレーションプロセスをモデル化する。
論文 参考訳(メタデータ) (2025-05-29T18:28:02Z) - Migrating Code At Scale With LLMs At Google [0.0]
Googleでは,大規模で費用がかかる従来型の手動マイグレーションプロジェクトについて論じている。
変更位置探索と大規模言語モデル(LLM)を用いて開発者が移行を行うのを支援する新しい自動アルゴリズムを提案する。
我々のLLM支援ワークフローは、同様のイニシアチブのモデルとして機能する可能性が示唆された。
論文 参考訳(メタデータ) (2025-04-13T18:52:44Z) - MigGPT: Harnessing Large Language Models for Automated Migration of Out-of-Tree Linux Kernel Patches Across Versions [53.811953357289866]
大規模言語モデル(LLM)は、様々な領域で顕著な進歩を示している。
LLMは不完全なコードコンテキスト理解と不正確なマイグレーションポイント識別に苦労する。
MigGPTは、コードスニペット情報を保持するために新しいコード指紋構造を使用するフレームワークである。
論文 参考訳(メタデータ) (2025-04-13T08:08:37Z) - SWE-Fixer: Training Open-Source LLMs for Effective and Efficient GitHub Issue Resolution [56.9361004704428]
大規模言語モデル(LLM)は、様々な複雑なタスクにまたがる顕著な習熟度を示している。
SWE-Fixerは、GitHubの問題を効果的かつ効率的に解決するために設計された、新しいオープンソースフレームワークである。
我々は,SWE-Bench LiteとVerifiedベンチマークに対するアプローチを評価し,オープンソースモデル間の競合性能を実現する。
論文 参考訳(メタデータ) (2025-01-09T07:54:24Z) - Masked Thought: Simply Masking Partial Reasoning Steps Can Improve Mathematical Reasoning Learning of Language Models [102.72940700598055]
推論タスクでは、小さなエラーでも不正確な結果にカスケードすることができる。
入力の摂動に頼らず、外部リソースの導入を避ける手法を開発した。
私たちのトレーニングアプローチでは、思考の連鎖の中で特定のトークンをランダムにマスクします。
論文 参考訳(メタデータ) (2024-03-04T16:21:54Z) - Unprecedented Code Change Automation: The Fusion of LLMs and Transformation by Example [10.635856134931702]
大規模言語モデル(LLM)は、膨大なコードデータセットに基づいてトレーニングされる。
LLMを使用して、正確性、有用性、適用性の基準を満たすコード変種を生成するベストプラクティスを特定します。
PyCraftでそれらを実装し、正しい変種を識別し、入力を平均58倍に拡張し、ターゲットコードを増やすための変更を最大39倍まで自動化するF尺度を96.6%達成しました。
論文 参考訳(メタデータ) (2024-02-11T09:45:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。