論文の概要: Meta-RAG on Large Codebases Using Code Summarization
- arxiv url: http://arxiv.org/abs/2508.02611v1
- Date: Mon, 04 Aug 2025 17:01:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 20:32:48.737964
- Title: Meta-RAG on Large Codebases Using Code Summarization
- Title(参考訳): コード要約を用いた大規模コードベース上のメタRAG
- Authors: Vali Tawosia, Salwa Alamir, Xiaomo Liu, Manuela Veloso,
- Abstract要約: 大規模言語モデル(LLM)システムは、様々な領域における応用人工知能(AI)研究の最前線にある。
本稿では,情報検索とLLMを用いた大規模既存システムにおけるバグのローカライズを行うマルチエージェントシステムを提案する。
そこでは,要約を利用して79.8%の縮合を行い,コンパクトで構造化された自然言語表現を実現する。
- 参考スコア(独自算出の注目度): 11.415083231118142
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Model (LLM) systems have been at the forefront of applied Artificial Intelligence (AI) research in a multitude of domains. One such domain is software development, where researchers have pushed the automation of a number of code tasks through LLM agents. Software development is a complex ecosystem, that stretches far beyond code implementation and well into the realm of code maintenance. In this paper, we propose a multi-agent system to localize bugs in large pre-existing codebases using information retrieval and LLMs. Our system introduces a novel Retrieval Augmented Generation (RAG) approach, Meta-RAG, where we utilize summaries to condense codebases by an average of 79.8\%, into a compact, structured, natural language representation. We then use an LLM agent to determine which parts of the codebase are critical for bug resolution, i.e. bug localization. We demonstrate the usefulness of Meta-RAG through evaluation with the SWE-bench Lite dataset. Meta-RAG scores 84.67 % and 53.0 % for file-level and function-level correct localization rates, respectively, achieving state-of-the-art performance.
- Abstract(参考訳): 大規模言語モデル(LLM)システムは、様々な領域における応用人工知能(AI)研究の最前線にある。
そのようなドメインのひとつがソフトウェア開発であり、研究者はLLMエージェントを通じて多数のコードタスクの自動化を推し進めている。
ソフトウェア開発は複雑なエコシステムであり、コードの実装を超えて、コードのメンテナンスの領域にまで広がっています。
本稿では,情報検索とLLMを用いて,既存の大規模コードベースのバグをローカライズするマルチエージェントシステムを提案する。
そこでは,要約を利用して,平均79.8\%のコードベースをコンパクトで構造化された自然言語表現に変換する。
次に、LLMエージェントを使用して、コードベースのどの部分がバグ解決に重要なのか、すなわちバグのローカライゼーションを決定する。
SWE-bench Liteデータセットを用いた評価により,メタRAGの有用性を示す。
Meta-RAGはファイルレベルと関数レベルの正しいローカライズレートで84.67 %と53.0 %をスコアし、最先端のパフォーマンスを実現している。
関連論文リスト
- Open Source Planning & Control System with Language Agents for Autonomous Scientific Discovery [5.326072982491534]
cmbagentは科学研究タスクの自動化システムである。
このシステムはおよそ30のLarge Language Model (LLM)エージェントによって構成されている。
このシステムはHuggingFace上にデプロイされ、クラウド上で利用できるようになる。
論文 参考訳(メタデータ) (2025-07-09T20:03:30Z) - Context-Aware Code Wiring Recommendation with LLM-based Agent [4.34559879087055]
コード配線は、解決されていない変数を、周囲のコンテキストから適切な変数でペーストしたコードに置換することを含む。
本稿では,RAG(Retrieval-Augmented Generation)インフィルタスクとしてフレーム化されたコード配線のためのエージェントであるWIRLを紹介する。
WIRLは、実世界のコード適応シナリオからなる、注意深くキュレートされた高品質なデータセットで評価する。
論文 参考訳(メタデータ) (2025-07-02T03:00:23Z) - SweRank: Software Issue Localization with Code Ranking [109.3289316191729]
SweRankは、ソフトウェア問題ローカライゼーションのための効率的な検索と参照のためのフレームワークである。
パブリックなGitHubリポジトリからキュレートされた大規模なデータセットであるSweLocを構築します。
SweRankは最先端の性能を達成し、従来のランキングモデルとコストの高いエージェントベースシステムの両方より優れていることを示す。
論文 参考訳(メタデータ) (2025-05-07T19:44:09Z) - CodeRAG: Supportive Code Retrieval on Bigraph for Real-World Code Generation [69.684886175768]
大規模言語モデル(LLM)は、自動コード生成において有望なパフォーマンスを示している。
本稿では,検索拡張コード生成フレームワークであるCodeRAGを提案する。
実験によると、CodeRAGはRAGのシナリオと比較して大幅に改善されている。
論文 参考訳(メタデータ) (2025-04-14T09:51:23Z) - LocAgent: Graph-Guided LLM Agents for Code Localization [25.395102705800916]
LocAgentは、グラフベースの表現を通じてコードのローカライゼーションに対処するフレームワークである。
細調整したQwen-2.5-Coder-Instruct-32Bモデルを用いて,SOTAプロプライエタリモデルと比較して,コストを大幅に削減した。
論文 参考訳(メタデータ) (2025-03-12T05:55:01Z) - CodeTree: Agent-guided Tree Search for Code Generation with Large Language Models [106.11371409170818]
大規模言語モデル(LLM)は、生成されたコードを自己定義し、自律的に改善する機能を持つエージェントとして機能する。
コード生成プロセスの異なる段階における探索空間を効率的に探索するLLMエージェントのためのフレームワークであるCodeTreeを提案する。
具体的には、異なるコーディング戦略を明示的に探求し、対応するコーディングソリューションを生成し、その後、ソリューションを洗練するために統合されたツリー構造を採用しました。
論文 参考訳(メタデータ) (2024-11-07T00:09:54Z) - DOMAINEVAL: An Auto-Constructed Benchmark for Multi-Domain Code Generation [48.11754113512047]
この研究には、コード生成ベンチマークデータセットであるDOMAINEVALが含まれており、6つの人気のあるドメインを含んでいる。
私たちのパイプラインは完全に自動化され、コードリポジトリから研究対象のフォーマットへのプッシュボットの構築が可能になります。
本研究のコントリビューションには、コード生成ベンチマークデータセットであるDOMAINEVAL、コードベンチマークを構築するための完全自動化パイプライン、DOMAINEVALのパフォーマンスに基づいたコード生成タスクにおけるLLMの制限の識別が含まれている。
論文 参考訳(メタデータ) (2024-08-23T16:33:58Z) - CodeRAG-Bench: Can Retrieval Augment Code Generation? [78.37076502395699]
検索拡張生成を用いたコード生成の系統的,大規模な解析を行う。
まず、コード生成タスクの3つのカテゴリを含む総合的な評価ベンチマークであるCodeRAG-Benchをキュレートする。
CodeRAG-Bench上のトップパフォーマンスモデルについて、1つまたは複数のソースから検索したコンテキストを提供することにより検討する。
論文 参考訳(メタデータ) (2024-06-20T16:59:52Z) - ML-Bench: Evaluating Large Language Models and Agents for Machine Learning Tasks on Repository-Level Code [76.84199699772903]
ML-Benchは、既存のコードリポジトリを利用してタスクを実行する現実世界のプログラミングアプリケーションに根ざしたベンチマークである。
LLM(Large Language Model)とAIエージェントの両方を評価するために、事前に定義されたデプロイメント環境でLLMのテキスト-コード変換を評価するML-LLM-Benchと、Linuxサンドボックス環境でエンドツーエンドのタスク実行で自律エージェントをテストするML-Agent-Benchの2つの設定が採用されている。
論文 参考訳(メタデータ) (2023-11-16T12:03:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。