論文の概要: Migrating Code At Scale With LLMs At Google
- arxiv url: http://arxiv.org/abs/2504.09691v1
- Date: Sun, 13 Apr 2025 18:52:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-23 03:15:16.706663
- Title: Migrating Code At Scale With LLMs At Google
- Title(参考訳): GoogleのLLMで大規模コードの移行
- Authors: Celal Ziftci, Stoyan Nikolov, Anna Sjövall, Bo Kim, Daniele Codecasa, Max Kim,
- Abstract要約: Googleでは,大規模で費用がかかる従来型の手動マイグレーションプロジェクトについて論じている。
変更位置探索と大規模言語モデル(LLM)を用いて開発者が移行を行うのを支援する新しい自動アルゴリズムを提案する。
我々のLLM支援ワークフローは、同様のイニシアチブのモデルとして機能する可能性が示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Developers often evolve an existing software system by making internal changes, called migration. Moving to a new framework, changing implementation to improve efficiency, and upgrading a dependency to its latest version are examples of migrations. Migration is a common and typically continuous maintenance task undertaken either manually or through tooling. Certain migrations are labor intensive and costly, developers do not find the required work rewarding, and they may take years to complete. Hence, automation is preferred for such migrations. In this paper, we discuss a large-scale, costly and traditionally manual migration project at Google, propose a novel automated algorithm that uses change location discovery and a Large Language Model (LLM) to aid developers conduct the migration, report the results of a large case study, and discuss lessons learned. Our case study on 39 distinct migrations undertaken by three developers over twelve months shows that a total of 595 code changes with 93,574 edits have been submitted, where 74.45% of the code changes and 69.46% of the edits were generated by the LLM. The developers reported high satisfaction with the automated tooling, and estimated a 50% reduction on the total time spent on the migration compared to earlier manual migrations. Our results suggest that our automated, LLM-assisted workflow can serve as a model for similar initiatives.
- Abstract(参考訳): 開発者は、移行と呼ばれる内部的な変更を行うことで、既存のソフトウェアシステムを進化させることが多い。
新しいフレームワークへの移行、効率改善のための実装の変更、最新バージョンへの依存関係のアップグレードなどが、マイグレーションの例だ。
マイグレーションは、手動またはツーリングを通じて実行される一般的な、通常は継続的メンテナンスタスクである。
ある種の移行は労働集約的でコストがかかるため、開発者は必要な仕事の報酬を見つけず、完成までに何年もかかる可能性がある。
したがって、このような移行には自動化が望ましい。
本稿では,Googleにおける大規模かつ費用がかかる従来型の手動マイグレーションプロジェクトについて論じ,変更位置探索と大規模言語モデル(LLM)を用いた新しい自動アルゴリズムを提案し,開発者が移行を行うのを支援するとともに,大規模なケーススタディの結果を報告し,得られた教訓について議論する。
12ヶ月にわたって3人の開発者が実施した39の異なる移行に関するケーススタディでは、合計595のコード変更と93,574の編集が提出され、74.45%のコード変更と69.46%の編集がLLMによって生成された。
開発者は自動ツールに対する高い満足度を報告し、以前の手動移行と比較して、移行に費やした合計時間の50%削減を見積もった。
我々のLLM支援ワークフローは、同様のイニシアチブのモデルとして機能する可能性が示唆された。
関連論文リスト
- Using LLMs for Library Migration [1.9247157750972368]
大規模言語モデル(LLM)は、コードの生成と変換、および類似のコードを見つけるのに長けている。
我々はPyMigBench上でLLama 3.1, GPT-4o mini, GPT-4oの3つのLCMを評価し, 実世界のライブラリマイグレーション321を移行した。
LLama 3.1, GPT-4o mini, GPT-4oはそれぞれ89%, 89%, 94%の移行関連コード変更を正しく移行した。
論文 参考訳(メタデータ) (2025-04-17T18:32:48Z) - How is Google using AI for internal code migrations? [5.277315246731]
この記事では、GoogleのコードマイグレーションにLLMを使用する経験レポートを紹介する。
むしろ私たちは、LLMベースのコードマイグレーションを企業コンテキストに適用した経験を共有しています。
LLMを使用することで、移行に要する時間を大幅に短縮できるという証拠が得られます。
論文 参考訳(メタデータ) (2025-01-12T23:06:25Z) - Example-Based Automatic Migration of Continuous Integration Systems [2.2836654317217326]
継続的インテグレーション(CI)は、コード変更の統合とテストの高速化に広く採用されているプラクティスです。
開発者はしばしば、マトリックスの構築やロギングの改善といった機能を追求して、CIシステム間で移行する。
この移行は、新しいCIシステムとその構文に関する知識が限られているため、集中的かつエラーを起こしやすい。
本稿では,CIシステムの自動マイグレーションのための新しいアプローチとして,CIMigを提案する。
論文 参考訳(メタデータ) (2024-07-02T20:19:21Z) - DS-Agent: Automated Data Science by Empowering Large Language Models with Case-Based Reasoning [56.887047551101574]
大規模言語モデル(LLM)エージェントとケースベース推論(CBR)を利用した新しいフレームワークであるDS-Agentを提案する。
開発段階では、DS-AgentはCBRフレームワークに従い、自動イテレーションパイプラインを構築する。
デプロイメントの段階では、DS-Agentは、シンプルなCBRパラダイムで低リソースのデプロイメントステージを実装し、LCMの基本能力に対する需要を大幅に削減する。
論文 参考訳(メタデータ) (2024-02-27T12:26:07Z) - A Generative AI Assistant to Accelerate Cloud Migration [2.9248916859490173]
Cloud Migration LLMは、移行のパラメータを指定するユーザからの入力を受け入れ、アーキテクチャ図でマイグレーション戦略を出力する。
ユーザ調査によると、移行LLMは、経験の浅いユーザによる適切なクラウド移行プロファイルの発見を支援すると同時に、手作業によるアプローチの複雑さを回避することができる。
論文 参考訳(メタデータ) (2024-01-03T14:13:24Z) - Experiential Co-Learning of Software-Developing Agents [83.34027623428096]
大規模言語モデル(LLM)は、特にソフトウェア開発において、様々な領域に大きな変化をもたらした。
本稿では,新しいLLM学習フレームワークであるExperiential Co-Learningを紹介する。
実験では、このフレームワークにより、エージェントは、目に見えないソフトウェア開発タスクをより効果的に対処できることを示した。
論文 参考訳(メタデータ) (2023-12-28T13:50:42Z) - ML-Bench: Evaluating Large Language Models and Agents for Machine Learning Tasks on Repository-Level Code [76.84199699772903]
ML-Benchは、既存のコードリポジトリを利用してタスクを実行する現実世界のプログラミングアプリケーションに根ざしたベンチマークである。
LLM(Large Language Model)とAIエージェントの両方を評価するために、事前に定義されたデプロイメント環境でLLMのテキスト-コード変換を評価するML-LLM-Benchと、Linuxサンドボックス環境でエンドツーエンドのタスク実行で自律エージェントをテストするML-Agent-Benchの2つの設定が採用されている。
論文 参考訳(メタデータ) (2023-11-16T12:03:21Z) - FireAct: Toward Language Agent Fine-tuning [63.06306936820456]
我々は、言語エージェントを得るための微調整LMの見落としの方向について論じる。
GPT-4によって生成された500個のエージェント軌道を持つ微調整のLlama2-7Bは、77%のHotpotQA性能向上をもたらす。
本稿では,複数のタスクからのトラジェクトリとメソッドのプロンプトを併用した微調整LMの新たなアプローチであるFireActを提案する。
論文 参考訳(メタデータ) (2023-10-09T17:58:38Z) - Adapting Large Language Models for Content Moderation: Pitfalls in Data
Engineering and Supervised Fine-tuning [79.53130089003986]
大規模言語モデル(LLM)は、様々なドメインでタスクを処理するための実現可能なソリューションとなっている。
本稿では、コンテンツモデレーションのためにプライベートにデプロイ可能なLLMモデルを微調整する方法を紹介する。
論文 参考訳(メタデータ) (2023-10-05T09:09:44Z) - CulturaX: A Cleaned, Enormous, and Multilingual Dataset for Large
Language Models in 167 Languages [86.90220551111096]
大規模言語モデル(LLM)のトレーニングデータセットは、完全には公開されないことが多い。
我々は167言語で6.3兆のトークンを持つ相当な多言語データセットであるCulturaXを紹介する。
論文 参考訳(メタデータ) (2023-09-17T23:49:10Z) - Interactive, Iterative, Tooled, Rule-Based Migration of Microsoft Access
to Web Technologies [0.11650821883155184]
私たちは、Microsoft AccessのモノリシックアプリケーションをWebフロントエンドに移行し、バックエンドを生成する作業に取り組んでいます。
開発者がターゲットシステムへのマイグレーションを可能にするために,インタラクティブで反復的,ツーリング,ルールベースのマイグレーションアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-07T06:46:28Z) - MLLM-DataEngine: An Iterative Refinement Approach for MLLM [62.30753425449056]
本稿では,データ生成,モデルトレーニング,評価を橋渡しする新しいクローズドループシステムを提案する。
各ループ内で、MLLM-DataEngineはまず評価結果に基づいてモデルの弱点を分析する。
ターゲットとして,異なる種類のデータの比率を調整する適応型バッドケースサンプリングモジュールを提案する。
品質については、GPT-4を用いて、各データタイプで高品質なデータを生成する。
論文 参考訳(メタデータ) (2023-08-25T01:41:04Z) - Characterizing Python Library Migrations [2.2557806157585834]
335Pythonライブラリのマイグレーションでは,3,096のマイグレーション関連のコード変更をラベル付けしています。
ライブラリペアの40%が、非関数型プログラム要素を含むAPIマッピングを持っていることが分かりました。
移行を行うには,平均して4つのAPIと2つのAPIマッピングについて学ぶ必要がある。
論文 参考訳(メタデータ) (2022-07-03T21:00:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。