論文の概要: OrcaLoca: An LLM Agent Framework for Software Issue Localization
- arxiv url: http://arxiv.org/abs/2502.00350v1
- Date: Sat, 01 Feb 2025 07:15:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 15:21:53.665023
- Title: OrcaLoca: An LLM Agent Framework for Software Issue Localization
- Title(参考訳): OrcaLoca: ソフトウェア問題ローカライゼーションのためのLLMエージェントフレームワーク
- Authors: Zhongming Yu, Hejia Zhang, Yujie Zhao, Hanxian Huang, Matrix Yao, Ke Ding, Jishen Zhao,
- Abstract要約: OrcaLocaはソフトウェアイシューのローカライゼーションの精度を向上させるエージェントフレームワークである。
LLM誘導アクションの優先度に基づくスケジューリング、関連性スコア付きアクション分解、距離対応コンテキストプルーニングを統合している。
また、パッチ生成統合を通じて、オープンソースのフレームワークの最終的な解決率を6.33ポイント改善する。
- 参考スコア(独自算出の注目度): 7.608131635030634
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent developments in Large Language Model (LLM) agents are revolutionizing Autonomous Software Engineering (ASE), enabling automated coding, problem fixes, and feature improvements. However, localization -- precisely identifying software problems by navigating to relevant code sections -- remains a significant challenge. Current approaches often yield suboptimal results due to a lack of effective integration between LLM agents and precise code search mechanisms. This paper introduces OrcaLoca, an LLM agent framework that improves accuracy for software issue localization by integrating priority-based scheduling for LLM-guided action, action decomposition with relevance scoring, and distance-aware context pruning. Experimental results demonstrate that OrcaLoca becomes the new open-source state-of-the-art (SOTA) in function match rate (65.33%) on SWE-bench Lite. It also improves the final resolved rate of an open-source framework by 6.33 percentage points through its patch generation integration.
- Abstract(参考訳): 大規模言語モデル(LLM)エージェントの最近の開発は、自動コーディング、問題修正、機能改善を可能にする、自律ソフトウェア工学(ASE)に革命をもたらしている。
しかし、ローカライゼーション -- 関連するコードセクションをナビゲートすることで、ソフトウェアの問題を正確に識別する -- は、依然として重要な課題である。
現在のアプローチは、LLMエージェントと正確なコード検索機構との効果的な統合が欠如しているため、しばしば準最適結果をもたらす。
本稿では, LLM誘導行動の優先度に基づくスケジューリング, 関連性スコアリングによる動作分解, 距離認識型コンテキストプルーニングを統合することで, ソフトウェア問題局所化の精度向上を実現する, LLMエージェントフレームワークであるOrcaLocaを紹介する。
実験の結果、OrcaLoca は SWE-bench Lite 上での関数マッチングレート (65.33%) で新しいオープンソースステート・オブ・ザ・アート (SOTA) となることが示された。
また、パッチ生成統合を通じて、オープンソースのフレームワークの最終的な解決率を6.33ポイント改善する。
関連論文リスト
- Thinking Longer, Not Larger: Enhancing Software Engineering Agents via Scaling Test-Time Compute [61.00662702026523]
より大規模なモデルではなく、推論時間の増加を活用する統合されたテスト時間計算スケーリングフレームワークを提案する。
当社のフレームワークには,内部TTCと外部TTCの2つの補完戦略が組み込まれている。
当社の textbf32B モデルは,DeepSeek R1 671B や OpenAI o1 など,はるかに大きなモデルを上回る 46% の課題解決率を実現している。
論文 参考訳(メタデータ) (2025-03-31T07:31:32Z) - CoSIL: Software Issue Localization via LLM-Driven Code Repository Graph Searching [9.969478638201261]
CoSILは、トレーニングやインデックスなしの単純だが強力なイシューローカライズ手法である。
トップ1のローカライゼーション成功率は43%、SWEベンチLiteとSWEベンチVerifiedで44.6%に達する。
パッチ生成段階をガイドするためにCoSILを適用すると、解決率は9.3から31.5%向上する。
論文 参考訳(メタデータ) (2025-03-28T13:36:26Z) - DARS: Dynamic Action Re-Sampling to Enhance Coding Agent Performance by Adaptive Tree Traversal [55.13854171147104]
大規模言語モデル(LLM)は、自然言語処理、データ分析、ソフトウェア開発など、さまざまな領域に革命をもたらした。
符号化エージェントのための新しい推論時間計算スケーリングアプローチである動的アクション再サンプリング(DARS)を提案する。
我々は、SWE-Bench Liteベンチマークに対する我々のアプローチを評価し、このスケーリング戦略がClude 3.5 Sonnet V2で55%のパス@kスコアを達成したことを実証した。
論文 参考訳(メタデータ) (2025-03-18T14:02:59Z) - LLM-Lasso: A Robust Framework for Domain-Informed Feature Selection and Regularization [59.75242204923353]
LLM-Lassoは大規模言語モデル(LLM)を利用してラッソ回帰における特徴選択を導くフレームワークである。
LLMは各特徴に対してペナルティ因子を生成し、単純でチューニング可能なモデルを用いてラスソペナルティの重みに変換される。
LLMによりより関連づけられた特徴は、より低い罰を受け、最終モデルに保持される可能性を高める。
論文 参考訳(メタデータ) (2025-02-15T02:55:22Z) - EDA-Aware RTL Generation with Large Language Models [0.7831852829409273]
LLM(Large Language Models)は、RTLコードを生成するために人気が高まっている。
ゼロショット設定でエラーのないRTLコードを生成することは、最先端のLLMでも非常に難しい。
本稿では,構文と機能的エラーの反復的修正によるRTLコード生成の高速化を目的とした,自己検証型LLM非依存型エージェントフレームワークであるAIvril2を紹介する。
論文 参考訳(メタデータ) (2024-11-21T00:37:51Z) - Attention Is All You Need for LLM-based Code Vulnerability Localization [30.532439965854774]
手動のコード監査やルールベースのツールなど、従来の脆弱性のローカライゼーションの方法は、多くの場合、時間をかけてスコープに制限される。
本稿では,大規模言語モデルに固有の自己認識機構を活用する新しいフレームワークであるLOVAを紹介する。
LOVA は既存の LLM ベースのアプローチよりも大幅に優れており,F1 スコアの最大 5.3 倍の改善が達成されている。
論文 参考訳(メタデータ) (2024-10-20T05:02:18Z) - Enhancing Fault Localization Through Ordered Code Analysis with LLM Agents and Self-Reflection [8.22737389683156]
大規模言語モデル(LLM)は、コード理解と推論を強化することによって、フォールトローカライゼーションの有望な改善を提供する。
LLM4FL は,SBFL ランキングと配当戦略を統合した新しい LLM4FL の故障局所化手法である。
以上の結果から,LLM4FLはTop-1の精度でAutoFLを19.27%上回り,DeepFLやGraceといった最先端の監視技術を上回っていることがわかった。
論文 参考訳(メタデータ) (2024-09-20T16:47:34Z) - Code Vulnerability Detection: A Comparative Analysis of Emerging Large Language Models [0.46085106405479537]
本稿では,大規模言語モデル(LLM)による脆弱性の同定の有効性について検討する。
特にLlama, CodeLlama, Gemma, CodeGemma, そして既存の最先端モデルBERT, RoBERTa, GPT-3の性能評価を行った。
CodeGemmaは、ソフトウェアセキュリティの脆弱性を検出するための大規模言語モデルが最近追加された中で、最高F1スコア58、リコール87を達成している。
論文 参考訳(メタデータ) (2024-09-16T17:23:00Z) - Agent-Driven Automatic Software Improvement [55.2480439325792]
本提案は,Large Language Models (LLMs) を利用したエージェントの展開に着目して,革新的なソリューションの探求を目的とする。
継続的学習と適応を可能にするエージェントの反復的性質は、コード生成における一般的な課題を克服するのに役立ちます。
我々は,これらのシステムにおける反復的なフィードバックを用いて,エージェントの基盤となるLLMをさらに微調整し,自動化されたソフトウェア改善のタスクに整合性を持たせることを目指している。
論文 参考訳(メタデータ) (2024-06-24T15:45:22Z) - Towards Efficient LLM Grounding for Embodied Multi-Agent Collaboration [70.09561665520043]
本稿では,多エージェント協調のための新しいフレームワークを提案する。これは,効率的な自己調整のための強化アドバンテージフィードバック(Reinforced Advantage feedback, ReAd)を導入する。
強化学習における重み付き回帰を多エージェントシステムに拡張して理論的解析を行う。
Over-AIと難解なRoCoBenchの実験は、ReAdが成功率のベースラインを超え、エージェントの相互作用ステップを著しく減少させることを示している。
論文 参考訳(メタデータ) (2024-05-23T08:33:19Z) - DS-Agent: Automated Data Science by Empowering Large Language Models with Case-Based Reasoning [56.887047551101574]
大規模言語モデル(LLM)エージェントとケースベース推論(CBR)を利用した新しいフレームワークであるDS-Agentを提案する。
開発段階では、DS-AgentはCBRフレームワークに従い、自動イテレーションパイプラインを構築する。
デプロイメントの段階では、DS-Agentは、シンプルなCBRパラダイムで低リソースのデプロイメントステージを実装し、LCMの基本能力に対する需要を大幅に削減する。
論文 参考訳(メタデータ) (2024-02-27T12:26:07Z) - LLMRefine: Pinpointing and Refining Large Language Models via Fine-Grained Actionable Feedback [65.84061725174269]
最近の大規模言語モデル(LLM)は、世代品質を改善するために人間のフィードバックを活用している。
LLMの出力を最適化する推論時間最適化手法であるLLMRefineを提案する。
機械翻訳、長文質問応答(QA)、話題要約を含む3つのテキスト生成タスクについて実験を行った。
LLMRefineは、すべてのベースラインアプローチを一貫して上回り、翻訳タスクの1.7 MetricXポイント、ASQAの8.1 ROUGE-L、トピックの要約の2.2 ROUGE-Lの改善を実現している。
論文 参考訳(メタデータ) (2023-11-15T19:52:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。