論文の概要: Bugdar: AI-Augmented Secure Code Review for GitHub Pull Requests
- arxiv url: http://arxiv.org/abs/2503.17302v1
- Date: Fri, 21 Mar 2025 16:52:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-24 14:58:14.102424
- Title: Bugdar: AI-Augmented Secure Code Review for GitHub Pull Requests
- Title(参考訳): Bugdar: GitHubプルリクエストに対するAI強化されたセキュアコードレビュー
- Authors: John Naulty, Eason Chen, Joy Wang, George Digkas, Kostas Chalkias,
- Abstract要約: Bugdarは、GitHubのプルリクエストにシームレスに統合されたAI拡張コードレビューシステムである。
ほぼリアルタイムで、コンテキスト対応の脆弱性分析を提供する。
Bugdarはプルリクエスト毎の平均56.4秒、あるいは毎秒30行のコードを処理する。
- 参考スコア(独自算出の注目度): 9.636894100495505
- License:
- Abstract: As software systems grow increasingly complex, ensuring security during development poses significant challenges. Traditional manual code audits are often expensive, time-intensive, and ill-suited for fast-paced workflows, while automated tools frequently suffer from high false-positive rates, limiting their reliability. To address these issues, we introduce Bugdar, an AI-augmented code review system that integrates seamlessly into GitHub pull requests, providing near real-time, context-aware vulnerability analysis. Bugdar leverages fine-tunable Large Language Models (LLMs) and Retrieval Augmented Generation (RAGs) to deliver project-specific, actionable feedback that aligns with each codebase's unique requirements and developer practices. Supporting multiple programming languages, including Solidity, Move, Rust, and Python, Bugdar demonstrates exceptional efficiency, processing an average of 56.4 seconds per pull request or 30 lines of code per second. This is significantly faster than manual reviews, which could take hours per pull request. By facilitating a proactive approach to secure coding, Bugdar reduces the reliance on manual reviews, accelerates development cycles, and enhances the security posture of software systems without compromising productivity.
- Abstract(参考訳): ソフトウェアシステムが複雑化するにつれて、開発中のセキュリティを確保することが大きな課題となる。
従来の手動のコード監査は高価で時間集約的であり、速いペースのワークフローには適さないことが多いが、自動化されたツールは高い偽陽性率に悩まされ、信頼性が制限されることが多い。
これらの問題に対処するために、私たちは、GitHubのプルリクエストにシームレスに統合され、ほぼリアルタイム、コンテキスト対応の脆弱性分析を提供するAI拡張コードレビューシステムであるBugdarを紹介した。
Bugdarは、細調整可能なLarge Language Model(LLM)とRetrieval Augmented Generation(RAG)を活用して、各コードベースのユニークな要件と開発者のプラクティスに合わせて、プロジェクト固有のアクション可能なフィードバックを提供する。
Solidity、Move、Rust、Pythonなど、複数のプログラミング言語をサポートするBugdarは、プルリクエスト毎に平均56.4秒、毎秒30行のコードを処理するという、非常に効率的な方法を示している。
これは手作業によるレビューよりもはるかに高速で、プルリクエスト毎に数時間かかる可能性がある。
安全なコーディングのための積極的なアプローチを促進することで、Bugdarは手作業によるレビューへの依存を減らし、開発サイクルを加速し、生産性を損なうことなく、ソフトウェアシステムのセキュリティ姿勢を高める。
関連論文リスト
- Automated Code Review In Practice [1.6271516689052665]
Qodo、GitHub Copilot、CoderabbitなどのAI支援ツールが、大規模な言語モデル(LLM)を使用して自動レビューを提供する。
本研究では,LLMに基づく自動コードレビューツールが産業環境に与える影響について検討する。
論文 参考訳(メタデータ) (2024-12-24T16:24:45Z) - Seeker: Towards Exception Safety Code Generation with Intermediate Language Agents Framework [58.36391985790157]
現実世界のソフトウェア開発では、不適切な例外処理がコードの堅牢性と信頼性に重大な影響を与えます。
コードにおける例外処理を改善するために,大規模言語モデル (LLM) の利用について検討する。
例外処理のエキスパート開発者戦略に触発されたマルチエージェントフレームワークであるSeekerを提案する。
論文 参考訳(メタデータ) (2024-12-16T12:35:29Z) - RedCode: Risky Code Execution and Generation Benchmark for Code Agents [50.81206098588923]
RedCodeはリスクの高いコード実行と生成のためのベンチマークである。
RedCode-Execは、危険なコード実行につながる可能性のある、挑戦的なプロンプトを提供する。
RedCode-Genは160のプロンプトに関数シグネチャとドキュメントを入力として提供し、コードエージェントが命令に従うかどうかを評価する。
論文 参考訳(メタデータ) (2024-11-12T13:30:06Z) - Understanding Code Understandability Improvements in Code Reviews [79.16476505761582]
GitHub上のJavaオープンソースプロジェクトからの2,401のコードレビューコメントを分析した。
改善提案の83.9%が承認され、統合され、1%未満が後に復活した。
論文 参考訳(メタデータ) (2024-10-29T12:21:23Z) - Evaluating Software Development Agents: Patch Patterns, Code Quality, and Issue Complexity in Real-World GitHub Scenarios [13.949319911378826]
この調査は、500の現実のGitHubイシューで上位10のエージェントから4,892のパッチを評価した。
一人のエージェントが支配的であり、170の問題が未解決であり、改善の余地があった。
ほとんどのエージェントはコードの信頼性とセキュリティを維持し、新しいバグや脆弱性を避けた。
一部のエージェントはコードの複雑さを増し、多くの重複を減らし、コードの臭いを最小限にした。
論文 参考訳(メタデータ) (2024-10-16T11:33:57Z) - Codev-Bench: How Do LLMs Understand Developer-Centric Code Completion? [60.84912551069379]
Code-Development Benchmark (Codev-Bench)は、細粒度で現実世界、リポジトリレベル、開発者中心の評価フレームワークです。
Codev-Agentは、リポジトリのクローリングを自動化し、実行環境を構築し、既存のユニットテストから動的呼び出しチェーンを抽出し、データ漏洩を避けるために新しいテストサンプルを生成するエージェントベースのシステムである。
論文 参考訳(メタデータ) (2024-10-02T09:11:10Z) - Agent-Driven Automatic Software Improvement [55.2480439325792]
本提案は,Large Language Models (LLMs) を利用したエージェントの展開に着目して,革新的なソリューションの探求を目的とする。
継続的学習と適応を可能にするエージェントの反復的性質は、コード生成における一般的な課題を克服するのに役立ちます。
我々は,これらのシステムにおける反復的なフィードバックを用いて,エージェントの基盤となるLLMをさらに微調整し,自動化されたソフトウェア改善のタスクに整合性を持たせることを目指している。
論文 参考訳(メタデータ) (2024-06-24T15:45:22Z) - LLM-Powered Code Vulnerability Repair with Reinforcement Learning and
Semantic Reward [3.729516018513228]
我々は,大規模な言語モデルであるCodeGen2を利用した多目的コード脆弱性解析システム texttSecRepair を導入する。
そこで本研究では,LLMを用いた脆弱性解析に適した命令ベースデータセットを提案する。
GitHub上の6つのオープンソースIoTオペレーティングシステムにおいて、ゼロデイとNデイの脆弱性を特定します。
論文 参考訳(メタデータ) (2024-01-07T02:46:39Z) - Using AI/ML to Find and Remediate Enterprise Secrets in Code & Document
Sharing Platforms [2.9248916859490173]
1) AIを活用して、コード内のシークレットを正確に検出し、フラグアップし、人気のあるドキュメント共有プラットフォーム上でフラグアップする。
検出性能に優れた2つのベースラインAIモデルを導入し、コード中のシークレットを更新するための自動メカニズムを提案する。
論文 参考訳(メタデータ) (2024-01-03T14:15:25Z) - Generation Probabilities Are Not Enough: Uncertainty Highlighting in AI Code Completions [54.55334589363247]
本研究では,不確実性に関する情報を伝達することで,プログラマがより迅速かつ正確にコードを生成することができるかどうかを検討する。
トークンのハイライトは、編集される可能性が最も高いので、タスクの完了が早くなり、よりターゲットを絞った編集が可能になることがわかりました。
論文 参考訳(メタデータ) (2023-02-14T18:43:34Z) - Predicting Vulnerability In Large Codebases With Deep Code
Representation [6.357681017646283]
ソフトウェアエンジニアは様々なモジュールのコードを書きます。
過去に(異なるモジュールで)修正された同様の問題やバグも、本番コードで再び導入される傾向にある。
ソースコードから生成した抽象構文木(AST)の深部表現とアクティブフィードバックループを用いた,AIに基づく新しいシステムを開発した。
論文 参考訳(メタデータ) (2020-04-24T13:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。