論文の概要: OrcaLoca: An LLM Agent Framework for Software Issue Localization
- arxiv url: http://arxiv.org/abs/2502.00350v1
- Date: Sat, 01 Feb 2025 07:15:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 15:05:16.798760
- Title: OrcaLoca: An LLM Agent Framework for Software Issue Localization
- Title(参考訳): OrcaLoca: ソフトウェア問題ローカライゼーションのためのLLMエージェントフレームワーク
- Authors: Zhongming Yu, Hejia Zhang, Yujie Zhao, Hanxian Huang, Matrix Yao, Ke Ding, Jishen Zhao,
- Abstract要約: OrcaLocaはソフトウェアイシューのローカライゼーションの精度を向上させるエージェントフレームワークである。
LLM誘導アクションの優先度に基づくスケジューリング、関連性スコア付きアクション分解、距離対応コンテキストプルーニングを統合している。
また、パッチ生成統合を通じて、オープンソースのフレームワークの最終的な解決率を6.33ポイント改善する。
- 参考スコア(独自算出の注目度): 7.608131635030634
- License:
- Abstract: Recent developments in Large Language Model (LLM) agents are revolutionizing Autonomous Software Engineering (ASE), enabling automated coding, problem fixes, and feature improvements. However, localization -- precisely identifying software problems by navigating to relevant code sections -- remains a significant challenge. Current approaches often yield suboptimal results due to a lack of effective integration between LLM agents and precise code search mechanisms. This paper introduces OrcaLoca, an LLM agent framework that improves accuracy for software issue localization by integrating priority-based scheduling for LLM-guided action, action decomposition with relevance scoring, and distance-aware context pruning. Experimental results demonstrate that OrcaLoca becomes the new open-source state-of-the-art (SOTA) in function match rate (65.33%) on SWE-bench Lite. It also improves the final resolved rate of an open-source framework by 6.33 percentage points through its patch generation integration.
- Abstract(参考訳): 大規模言語モデル(LLM)エージェントの最近の開発は、自動コーディング、問題修正、機能改善を可能にする、自律ソフトウェア工学(ASE)に革命をもたらしている。
しかし、ローカライゼーション -- 関連するコードセクションをナビゲートすることで、ソフトウェアの問題を正確に識別する -- は、依然として重要な課題である。
現在のアプローチは、LLMエージェントと正確なコード検索機構との効果的な統合が欠如しているため、しばしば準最適結果をもたらす。
本稿では, LLM誘導行動の優先度に基づくスケジューリング, 関連性スコアリングによる動作分解, 距離認識型コンテキストプルーニングを統合することで, ソフトウェア問題局所化の精度向上を実現する, LLMエージェントフレームワークであるOrcaLocaを紹介する。
実験の結果、OrcaLoca は SWE-bench Lite 上での関数マッチングレート (65.33%) で新しいオープンソースステート・オブ・ザ・アート (SOTA) となることが示された。
また、パッチ生成統合を通じて、オープンソースのフレームワークの最終的な解決率を6.33ポイント改善する。
関連論文リスト
- LLM-Lasso: A Robust Framework for Domain-Informed Feature Selection and Regularization [59.75242204923353]
LLM-Lassoは大規模言語モデル(LLM)を利用してラッソ回帰における特徴選択を導くフレームワークである。
LLMは各特徴に対してペナルティ因子を生成し、単純でチューニング可能なモデルを用いてラスソペナルティの重みに変換される。
LLMによりより関連づけられた特徴は、より低い罰を受け、最終モデルに保持される可能性を高める。
論文 参考訳(メタデータ) (2025-02-15T02:55:22Z) - EDA-Aware RTL Generation with Large Language Models [0.7831852829409273]
LLM(Large Language Models)は、RTLコードを生成するために人気が高まっている。
ゼロショット設定でエラーのないRTLコードを生成することは、最先端のLLMでも非常に難しい。
本稿では,構文と機能的エラーの反復的修正によるRTLコード生成の高速化を目的とした,自己検証型LLM非依存型エージェントフレームワークであるAIvril2を紹介する。
論文 参考訳(メタデータ) (2024-11-21T00:37:51Z) - Attention Is All You Need for LLM-based Code Vulnerability Localization [30.532439965854774]
手動のコード監査やルールベースのツールなど、従来の脆弱性のローカライゼーションの方法は、多くの場合、時間をかけてスコープに制限される。
本稿では,大規模言語モデルに固有の自己認識機構を活用する新しいフレームワークであるLOVAを紹介する。
LOVA は既存の LLM ベースのアプローチよりも大幅に優れており,F1 スコアの最大 5.3 倍の改善が達成されている。
論文 参考訳(メタデータ) (2024-10-20T05:02:18Z) - Enhancing Fault Localization Through Ordered Code Analysis with LLM Agents and Self-Reflection [8.22737389683156]
大規模言語モデル(LLM)は、コード理解と推論を強化することによって、フォールトローカライゼーションの有望な改善を提供する。
LLM4FL は,SBFL ランキングと配当戦略を統合した新しい LLM4FL の故障局所化手法である。
以上の結果から,LLM4FLはTop-1の精度でAutoFLを19.27%上回り,DeepFLやGraceといった最先端の監視技術を上回っていることがわかった。
論文 参考訳(メタデータ) (2024-09-20T16:47:34Z) - Code Vulnerability Detection: A Comparative Analysis of Emerging Large Language Models [0.46085106405479537]
本稿では,大規模言語モデル(LLM)による脆弱性の同定の有効性について検討する。
特にLlama, CodeLlama, Gemma, CodeGemma, そして既存の最先端モデルBERT, RoBERTa, GPT-3の性能評価を行った。
CodeGemmaは、ソフトウェアセキュリティの脆弱性を検出するための大規模言語モデルが最近追加された中で、最高F1スコア58、リコール87を達成している。
論文 参考訳(メタデータ) (2024-09-16T17:23:00Z) - Exploring Automatic Cryptographic API Misuse Detection in the Era of LLMs [60.32717556756674]
本稿では,暗号誤用の検出において,大規模言語モデルを評価するための体系的評価フレームワークを提案する。
11,940個のLCM生成レポートを詳細に分析したところ、LSMに固有の不安定性は、報告の半数以上が偽陽性になる可能性があることがわかった。
最適化されたアプローチは、従来の手法を超え、確立されたベンチマークでこれまで知られていなかった誤用を明らかにすることで、90%近い顕著な検出率を達成する。
論文 参考訳(メタデータ) (2024-07-23T15:31:26Z) - Agent-Driven Automatic Software Improvement [55.2480439325792]
本提案は,Large Language Models (LLMs) を利用したエージェントの展開に着目して,革新的なソリューションの探求を目的とする。
継続的学習と適応を可能にするエージェントの反復的性質は、コード生成における一般的な課題を克服するのに役立ちます。
我々は,これらのシステムにおける反復的なフィードバックを用いて,エージェントの基盤となるLLMをさらに微調整し,自動化されたソフトウェア改善のタスクに整合性を持たせることを目指している。
論文 参考訳(メタデータ) (2024-06-24T15:45:22Z) - Towards Efficient LLM Grounding for Embodied Multi-Agent Collaboration [70.09561665520043]
本稿では,多エージェント協調のための新しいフレームワークを提案する。これは,効率的な自己調整のための強化アドバンテージフィードバック(Reinforced Advantage feedback, ReAd)を導入する。
強化学習における重み付き回帰を多エージェントシステムに拡張して理論的解析を行う。
Over-AIと難解なRoCoBenchの実験は、ReAdが成功率のベースラインを超え、エージェントの相互作用ステップを著しく減少させることを示している。
論文 参考訳(メタデータ) (2024-05-23T08:33:19Z) - Found in the Middle: How Language Models Use Long Contexts Better via
Plug-and-Play Positional Encoding [78.36702055076456]
本稿では,マルチスケール位置決めについて紹介する。
(Ms-PoE)は、シンプルで効果的なプラグアンドプレイ方式で、キャパシティを向上させる。
LLMはコンテキストの中央に位置する関連情報を扱う。
論文 参考訳(メタデータ) (2024-03-05T04:58:37Z) - DS-Agent: Automated Data Science by Empowering Large Language Models with Case-Based Reasoning [56.887047551101574]
大規模言語モデル(LLM)エージェントとケースベース推論(CBR)を利用した新しいフレームワークであるDS-Agentを提案する。
開発段階では、DS-AgentはCBRフレームワークに従い、自動イテレーションパイプラインを構築する。
デプロイメントの段階では、DS-Agentは、シンプルなCBRパラダイムで低リソースのデプロイメントステージを実装し、LCMの基本能力に対する需要を大幅に削減する。
論文 参考訳(メタデータ) (2024-02-27T12:26:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。