論文の概要: An LLM-based Agent for Reliable Docker Environment Configuration
- arxiv url: http://arxiv.org/abs/2502.13681v2
- Date: Thu, 06 Mar 2025 07:17:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-07 15:57:08.156260
- Title: An LLM-based Agent for Reliable Docker Environment Configuration
- Title(参考訳): LLMベースの信頼性のあるDocker環境設定エージェント
- Authors: Ruida Hu, Chao Peng, Xinchen Wang, Cuiyun Gao,
- Abstract要約: Repo2Runは環境設定を完全に自動化し、任意のPythonリポジトリに対して実行可能なDockerfileを生成するように設計されたエージェントである。
1) LLMエージェントが分離されたDockerコンテナ内の環境を構成できるようにし、(2) 正常な設定プロセスが記録され、エラーなく正確にDockerfileに転送されることを保証する。
Repo2Runonが提案した420のPythonレポジトリとユニットテストのベンチマークを評価し、86.4%の成功率で、ベースラインを63.9%上回った。
- 参考スコア(独自算出の注目度): 9.436480907117415
- License:
- Abstract: Environment configuration is a critical yet time-consuming step in software development, especially when dealing with unfamiliar code repositories. While Large Language Models (LLMs) demonstrate the potential to accomplish software engineering tasks, existing methods for environment configuration often rely on manual efforts or fragile scripts, leading to inefficiencies and unreliable outcomes. We introduce Repo2Run, the first LLM-based agent designed to fully automate environment configuration and generate executable Dockerfiles for arbitrary Python repositories. We address two major challenges: (1) enabling the LLM agent to configure environments within isolated Docker containers, and (2) ensuring the successful configuration process is recorded and accurately transferred to a Dockerfile without error. To achieve this, we propose atomic configuration synthesis, featuring a dual-environment architecture (internal and external environment) with a rollback mechanism to prevent environment "pollution" from failed commands, guaranteeing atomic execution (execute fully or not at all) and a Dockerfile generator to transfer successful configuration steps into runnable Dockerfiles. We evaluate Repo2Run~on our proposed benchmark of 420 recent Python repositories with unit tests, where it achieves an 86.0% success rate, outperforming the best baseline by 63.9%. Repo2Run is available at https://github.com/bytedance/Repo2Run.
- Abstract(参考訳): 環境設定は、特になじみの無いコードリポジトリを扱う場合、ソフトウェア開発において重要なが時間を要するステップです。
大規模言語モデル(LLM)は、ソフトウェアエンジニアリングタスクを達成する可能性を示しているが、環境構成のための既存のメソッドは、しばしば手作業や脆弱なスクリプトに依存し、非効率性と信頼性の低い結果をもたらす。
環境設定を完全に自動化し、任意のPythonリポジトリに対して実行可能なDockerfileを生成するように設計された、最初のLLMベースのエージェントであるRepo2Runを紹介します。
1) LLMエージェントが分離されたDockerコンテナ内の環境を構成できるようにし、(2) 正常な設定プロセスが記録され、エラーなく正確にDockerfileに転送されることを保証する。
これを実現するために、デュアル環境アーキテクチャ(内部および外部環境)とロールバック機構を備えたアトミックな構成合成を提案し、環境の“汚染”を防止し、アトミックな実行を保証する(完全に実行するか、まったく実行しないか)と、成功した設定ステップを実行可能なDockerfileに転送するDockerfileジェネレータを提案する。
提案した420のPythonレポジトリとユニットテストのベンチマークで、Repo2Run~が86.0%の成功率に達し、ベースラインを63.9%上回ったことを評価した。
Repo2Runはhttps://github.com/bytedance/Repo2Runで入手できる。
関連論文リスト
- Design and Implementation of Flutter based Multi-platform Docker Controller App [1.1443262816483672]
本稿では,Dockerリソースを遠隔操作するFlutterアプリケーションの開発に焦点を当てる。
アプリケーションはSSHプロトコルを使用してサーバとのセキュアな接続を確立し、コマンドを実行する。
HTTPを使用してアプリケーションをDockerエンジンに接続する、別のアプローチも検討されている。
論文 参考訳(メタデータ) (2025-02-17T11:48:02Z) - Refactoring for Dockerfile Quality: A Dive into Developer Practices and Automation Potential [0.0]
本稿では,358のオープンソースプロジェクトの600fileを使用したDockerfileの自動化の有用性と実用性について検討する。
提案手法では,画像サイズが平均32%減少し,ビルド期間が6%減少し,77%,91%の症例で理解性と保守性が向上した。
論文 参考訳(メタデータ) (2025-01-23T23:10:47Z) - ExecRepoBench: Multi-level Executable Code Completion Evaluation [45.963424627710765]
本稿では,リポジトリレベルのベンチマークであるExecRepoBenchの作成を通じて,ソフトウェア開発におけるコード補完を強化する新しいフレームワークを紹介する。
本稿では,抽象構文木をベースとした多段階文法ベースの補完手法を提案し,様々な論理単位のコードフラグメントをマスキングする。
次に,Repo-Instruct の 7B パラメータでオープンソースの LLM を微調整し,強力なコード補完ベースラインモデル Qwen2.5-Coder-Instruct-C を生成する。
論文 参考訳(メタデータ) (2024-12-16T17:14:35Z) - Beyond pip install: Evaluating LLM Agents for the Automated Installation of Python Projects [11.418182511485032]
大規模言語モデル(LLM)ベースのエージェントは、リポジトリレベルのタスクを実行するために提案されている。
他のレポジトリをインストールすることでプロジェクトレベルの依存性をフルフィルする、という重要なタスクがひとつ欠けている、と私たちは主張しています。
我々は,40のオープンソースPythonプロジェクトから収集したリポジトリインストールタスクのベンチマークを紹介する。
実験の結果、調査対象のリポジトリの55%は、エージェントによって10回のうち少なくとも1回は自動的にインストールできることがわかった。
論文 参考訳(メタデータ) (2024-12-09T08:37:06Z) - CRAB: Cross-environment Agent Benchmark for Multimodal Language Model Agents [49.68117560675367]
Crabは、クロス環境タスクをサポートするように設計された最初のベンチマークフレームワークである。
私たちのフレームワークは複数のデバイスをサポートし、Pythonインターフェースで簡単に任意の環境に拡張できます。
実験の結果、GPT-4oの1剤が38.01%の最高完成率を達成することが示された。
論文 参考訳(メタデータ) (2024-07-01T17:55:04Z) - ML-Bench: Evaluating Large Language Models and Agents for Machine Learning Tasks on Repository-Level Code [76.84199699772903]
ML-Benchは、既存のコードリポジトリを利用してタスクを実行する現実世界のプログラミングアプリケーションに根ざしたベンチマークである。
LLM(Large Language Model)とAIエージェントの両方を評価するために、事前に定義されたデプロイメント環境でLLMのテキスト-コード変換を評価するML-LLM-Benchと、Linuxサンドボックス環境でエンドツーエンドのタスク実行で自律エージェントをテストするML-Agent-Benchの2つの設定が採用されている。
論文 参考訳(メタデータ) (2023-11-16T12:03:21Z) - Arbitrarily Scalable Environment Generators via Neural Cellular Automata [55.150593161240444]
NCA環境ジェネレータは, 環境サイズに関わらず, 整合性, 規則化されたパターンを維持可能であることを示す。
提案手法は,類似したパターンを持つ大規模環境に対して,単エージェント強化学習ポリシーを任意に拡張する。
論文 参考訳(メタデータ) (2023-10-28T07:30:09Z) - L2MAC: Large Language Model Automatic Computer for Extensive Code Generation [52.81694565226513]
トランスフォーマーベースの大規模言語モデル(LLM)は、基盤となるトランスフォーマーアーキテクチャの固定コンテキストウィンドウによって制約される。
本稿では,L2MACを提案する。L2MACは,LLMをベースとした汎用型自動計算機(von Neumann Architecture)フレームワークで,長期的かつ一貫した出力生成を実現する。
論文 参考訳(メタデータ) (2023-10-02T16:55:19Z) - EnvPool: A Highly Parallel Reinforcement Learning Environment Execution
Engine [69.47822647770542]
並列環境の実行はシステム全体の最も遅い部分であるが、ほとんど注意を払わない。
RL環境の並列化設計により,RL環境シミュレーションの高速化を実現した。
ハイエンドマシンでは、Atari環境での環境実行で毎秒100万フレーム、MuJoCo環境では毎秒300万フレームを達成する。
論文 参考訳(メタデータ) (2022-06-21T17:36:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。