論文の概要: Collaborative Agents for Software Engineering
- arxiv url: http://arxiv.org/abs/2402.02172v1
- Date: Sat, 3 Feb 2024 14:43:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 21:38:55.432169
- Title: Collaborative Agents for Software Engineering
- Title(参考訳): ソフトウェア工学のための協調エージェント
- Authors: Daniel Tang and Zhenghan Chen and Kisub Kim and Yewei Song and Haoye
Tian and Saad Ezzini and Yongfeng Huang and Jacques Klein Tegawende F.
Bissyande
- Abstract要約: コードレビューのための新しいマルチエージェントベースのシステムであるCodeAgentを紹介する。
CodeAgentは自律的で、マルチエージェントで、大規模言語モデル駆動である。
- 参考スコア(独自算出の注目度): 18.41988096169598
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Code review is a heavily collaborative process, which aims at ensuring the
overall quality and reliability of software. While it provides massive
benefits, the implementation of code review in an organization faces several
challenges that make its automation appealing. Automated code review tools have
been around for a while and are now improving thanks to the adoption of novel
AI models, which help can learn about standard practices and systematically
check that the reviewed code adheres to them. Unfortunately, existing methods
fall short: they often target a single input-output generative model, which
cannot simulate the collaboration interactions in code review to account for
various perspectives; they are also sub-performing on various critical code
review sub-tasks. In this paper, we advance the state of the art in code review
automation by introducing CodeAgent, a novel multi-agent-based system for code
review. Fundamentally, CodeAgent is steered by QA-Checker (short for
``Question-Answer Checking"), a supervision agent, designed specifically to
ensure that all agents' contributions remain relevant to the initial review
question. CodeAgent is autonomous, multi-agent, and Large language
model-driven. To demonstrate the effectiveness of CodeAgent, we performed
experiments to assess its capabilities in various tasks including 1) detection
of inconsistencies between code changes and commit messages, 2) detection of
vulnerability introduction by commits, and 3) validation of adherence to code
style. Our website is accessed in
\url{https://code-agent-new.vercel.app/index.html}.
- Abstract(参考訳): コードレビューは協調的なプロセスであり、ソフトウェアの全体的な品質と信頼性を保証することを目的としています。
これは大きなメリットを提供するが、組織におけるコードレビューの実装は、自動化をアピールするいくつかの課題に直面している。
自動化されたコードレビューツールが開発されてからしばらく経ち、新しいaiモデルの採用によって改善されている。
残念なことに、既存のメソッドは不足している。彼らはしばしば単一の入出力生成モデルをターゲットにしており、様々な視点を考慮したコードレビューのコラボレーションインタラクションをシミュレートできない。
本稿では,コードレビューのための新しいマルチエージェントシステムであるCodeAgentを導入することにより,コードレビュー自動化の最先端技術について述べる。
基本的には、CodeAgentは、すべてのエージェントのコントリビューションが初期レビュー問題に関連があることを保証するために設計された監督エージェントであるQA-Checker(`Question-Answer Checkingの略)によって運営されている。
codeagentは自律的で、マルチエージェントで、大きな言語モデル駆動です。
コードエージェントの有効性を実証するために,様々なタスクにおいてその能力を評価する実験を行った。
1)コード変更とコミットメッセージの不一致の検出。
2【コミットによる脆弱性導入の検出】
3) コードスタイルの遵守の検証。
私たちのウェブサイトは \url{https://code-agent-new.vercel.app/index.html} でアクセスできます。
関連論文リスト
- RedCode: Risky Code Execution and Generation Benchmark for Code Agents [50.81206098588923]
RedCodeはリスクの高いコード実行と生成のためのベンチマークである。
RedCode-Execは、危険なコード実行につながる可能性のある、挑戦的なプロンプトを提供する。
RedCode-Genは160のプロンプトに関数シグネチャとドキュメントを入力として提供し、コードエージェントが命令に従うかどうかを評価する。
論文 参考訳(メタデータ) (2024-11-12T13:30:06Z) - Evaluating Software Development Agents: Patch Patterns, Code Quality, and Issue Complexity in Real-World GitHub Scenarios [13.949319911378826]
この調査は、500の現実のGitHubイシューで上位10のエージェントから4,892のパッチを評価した。
一人のエージェントが支配的であり、170の問題が未解決であり、改善の余地があった。
ほとんどのエージェントはコードの信頼性とセキュリティを維持し、新しいバグや脆弱性を避けた。
一部のエージェントはコードの複雑さを増し、多くの重複を減らし、コードの臭いを最小限にした。
論文 参考訳(メタデータ) (2024-10-16T11:33:57Z) - Agent-as-a-Judge: Evaluate Agents with Agents [61.33974108405561]
本稿ではエージェント・アズ・ア・ジャッジ(Agent-as-a-Judge)フレームワークを紹介し,エージェント・システムを用いてエージェント・システムの評価を行う。
これはLLM-as-a-Judgeフレームワークの有機的拡張であり、タスク解決プロセス全体の中間フィードバックを可能にするエージェント的特徴を取り入れている。
55のリアルな自動化AI開発タスクのベンチマークであるDevAIを紹介します。
論文 参考訳(メタデータ) (2024-10-14T17:57:02Z) - Codev-Bench: How Do LLMs Understand Developer-Centric Code Completion? [60.84912551069379]
Code-Development Benchmark (Codev-Bench)は、細粒度で現実世界、リポジトリレベル、開発者中心の評価フレームワークです。
Codev-Agentは、リポジトリのクローリングを自動化し、実行環境を構築し、既存のユニットテストから動的呼び出しチェーンを抽出し、データ漏洩を避けるために新しいテストサンプルを生成するエージェントベースのシステムである。
論文 参考訳(メタデータ) (2024-10-02T09:11:10Z) - Sifting through the Chaff: On Utilizing Execution Feedback for Ranking the Generated Code Candidates [46.74037090843497]
大規模言語モデル(LLM)は、自然言語記述に基づいたコードの自動生成によって、開発者がプログラミングにアプローチする方法を変えつつある。
本稿では,実行フィードバックを活用するコードランキングの革新的なアプローチである RankEF について述べる。
3つのコード生成ベンチマークの実験では、RanEFが最先端のCodeRankerよりも大幅に優れていることが示されている。
論文 参考訳(メタデータ) (2024-08-26T01:48:57Z) - VersiCode: Towards Version-controllable Code Generation [58.82709231906735]
大規模言語モデル(LLM)は、コード生成において大きな進歩を遂げていますが、既存の研究は、ソフトウェア開発の動的な性質を説明できません。
バージョン別コード補完(VSCC)とバージョン別コードマイグレーション(VACM)の2つの新しいタスクを提案する。
VersiCodeについて広範な評価を行い、バージョン管理可能なコード生成が確かに重要な課題であることを示した。
論文 参考訳(メタデータ) (2024-06-11T16:15:06Z) - CodeAgent: Enhancing Code Generation with Tool-Integrated Agent Systems for Real-World Repo-level Coding Challenges [41.038584732889895]
大規模言語モデル(LLM)は自動コード生成において有望であるが、通常は単純なタスクでのみ優れている。
私たちの研究は、実世界のリポジトリレベルのコード生成という、より現実的な設定でLLMを評価することに向かっています。
我々は,効率的なリポジトリレベルのコード生成に外部ツールを利用する,新しいLLMベースのエージェントフレームワークであるCodeAgentを紹介する。
論文 参考訳(メタデータ) (2024-01-14T18:12:03Z) - Using AI/ML to Find and Remediate Enterprise Secrets in Code & Document
Sharing Platforms [2.9248916859490173]
1) AIを活用して、コード内のシークレットを正確に検出し、フラグアップし、人気のあるドキュメント共有プラットフォーム上でフラグアップする。
検出性能に優れた2つのベースラインAIモデルを導入し、コード中のシークレットを更新するための自動メカニズムを提案する。
論文 参考訳(メタデータ) (2024-01-03T14:15:25Z) - AgentCoder: Multi-Agent-based Code Generation with Iterative Testing and Optimisation [11.155351560550853]
本稿では,マルチエージェント・アシスタント・コード生成(AgentCoder)を紹介する。
AgentCoderは,プログラマエージェント,テストデザイナエージェント,テストエグゼクタエージェントという,特殊なエージェントを備えたマルチエージェントフレームワークを備えた,斬新なソリューションだ。
9つのコード生成モデルと12つの拡張アプローチの実験では、既存のコード生成モデルよりもAgentCoderの方が優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-12-20T13:22:41Z) - Code Execution with Pre-trained Language Models [88.04688617516827]
コードインテリジェンスのトレーニング済みモデルのほとんどは実行トレースを無視しており、ソースコードと構文構造のみに依存している。
我々は,大規模かつ現実的なPythonデータセットとコード実行タスクを作成するために,突然変異に基づくデータ拡張手法を開発した。
次に、コード実行事前学習とカリキュラム学習を活用して意味理解を強化するトランスフォーマーモデルであるCodeExecutorを提案する。
論文 参考訳(メタデータ) (2023-05-08T10:00:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。