論文の概要: SeRe: A Security-Related Code Review Dataset Aligned with Real-World Review Activities
- arxiv url: http://arxiv.org/abs/2601.01042v1
- Date: Sat, 03 Jan 2026 02:39:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:21.963796
- Title: SeRe: A Security-Related Code Review Dataset Aligned with Real-World Review Activities
- Title(参考訳): SeRe: 現実のレビュー活動に対応したセキュリティ関連コードレビューデータセット
- Authors: Zixiao Zhao, Yanjie Jiang, Hui Liu, Kui Liu, Lu Zhang,
- Abstract要約: 既存のデータセットと研究は主に汎用コードレビューコメントに焦点を当てている。
能動的学習に基づくアンサンブル分類手法を用いて構築したtextbfsecurity 関連コードレビューデータセット textbfSeRe を紹介する。
我々は373,824の生のレビューインスタンスから6,732のセキュリティ関連レビューを抽出し、複数のプログラミング言語の代表性を確保した。
- 参考スコア(独自算出の注目度): 8.215547096412346
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Software security vulnerabilities can lead to severe consequences, making early detection essential. Although code review serves as a critical defense mechanism against security flaws, relevant feedback remains scarce due to limited attention to security issues or a lack of expertise among reviewers. Existing datasets and studies primarily focus on general-purpose code review comments, either lacking security-specific annotations or being too limited in scale to support large-scale research. To bridge this gap, we introduce \textbf{SeRe}, a \textbf{security-related code review dataset}, constructed using an active learning-based ensemble classification approach. The proposed approach iteratively refines model predictions through human annotations, achieving high precision while maintaining reasonable recall. Using the fine-tuned ensemble classifier, we extracted 6,732 security-related reviews from 373,824 raw review instances, ensuring representativeness across multiple programming languages. Statistical analysis indicates that SeRe generally \textbf{aligns with real-world security-related review distribution}. To assess both the utility of SeRe and the effectiveness of existing code review comment generation approaches, we benchmark state-of-the-art approaches on security-related feedback generation. By releasing SeRe along with our benchmark results, we aim to advance research in automated security-focused code review and contribute to the development of more effective secure software engineering practices.
- Abstract(参考訳): ソフトウェアセキュリティの脆弱性は深刻な結果をもたらし、早期発見が不可欠である。
コードレビューはセキュリティ欠陥に対する重要な防御メカニズムとして機能するが、セキュリティ問題への注意不足やレビュアー間の専門知識の欠如により、関連するフィードバックは乏しいままである。
既存のデータセットと研究は、主に汎用コードレビューのコメントに焦点を当てている。
このギャップを埋めるために,能動的学習に基づくアンサンブル分類アプローチを用いて構築した,‘textbf{SeRe}’という,‘textbf{セキュリティ関連コードレビューデータセット’を導入する。
提案手法は,人間のアノテーションによるモデル予測を反復的に洗練し,適切なリコールを維持しつつ高い精度を達成する。
微調整アンサンブル分類器を用いて,373,824の生のレビューインスタンスから6,732のセキュリティ関連レビューを抽出し,複数のプログラミング言語の表現性を保証した。
統計分析は、SeReが一般に、現実のセキュリティ関連のレビュー配布を伴うtextbf{alignsであることを示している。
SeReの有用性と既存のコードレビューコメント生成手法の有効性を両立させるために,セキュリティ関連フィードバック生成の最先端アプローチをベンチマークする。
ベンチマーク結果とともにSeReをリリースすることによって、自動セキュリティ重視のコードレビューの研究を進め、より効果的なソフトウェアエンジニアリングプラクティスの開発に貢献することを目指しています。
関連論文リスト
- SafeRBench: A Comprehensive Benchmark for Safety Assessment in Large Reasoning Models [60.8821834954637]
LRMの安全性をエンドツーエンドに評価する最初のベンチマークであるSafeRBenchを紹介する。
私たちは、リスクカテゴリとレベルを入力設計に組み込んだ先駆者です。
我々は,長い推論トレースを意味的に一貫性のある単位にセグメント化するためのマイクロシンクのチャンキング機構を導入する。
論文 参考訳(メタデータ) (2025-11-19T06:46:33Z) - SecureReviewer: Enhancing Large Language Models for Secure Code Review through Secure-aware Fine-tuning [8.229920162000369]
コードレビュー中にセキュリティ関連の問題を特定し解決するためにSecureReviewerを提案する。
まず、セキュアなコードレビュー機能をトレーニングし評価するためのデータセットを構築します。
我々は、ドメイン固有のセキュリティ知識に生成されたコメントを基盤とするRAG技術を統合する。
論文 参考訳(メタデータ) (2025-10-30T13:06:11Z) - iCodeReviewer: Improving Secure Code Review with Mixture of Prompts [5.322602557660654]
iCodeReviewerは,大規模言語モデル(LLM)に基づいた,セキュアな自動レビューアプローチである。
実験結果は、F1の63.98%のセキュリティ問題同定とローカライゼーションにおけるiCodeReviewerの有効性を示す。
iCodeReviewerが生成したレビューコメントは、本番環境にデプロイされた場合の受け入れ率も最大84%に達する。
論文 参考訳(メタデータ) (2025-10-14T06:30:59Z) - GitHub's Copilot Code Review: Can AI Spot Security Flaws Before You Commit? [0.0]
この研究は、セキュリティ脆弱性の検出においてGitHub Copilotが最近導入したコードレビュー機能の有効性を評価する。
期待に反して、私たちの結果は、Copilotのコードレビューが重大な脆弱性を検出するのに頻繁に失敗することを示している。
私たちの結果は、堅牢なソフトウェアセキュリティを保証するために、専用のセキュリティツールと手作業によるコード監査が引き続き必要であることを示している。
論文 参考訳(メタデータ) (2025-09-17T02:56:21Z) - CoCoNUTS: Concentrating on Content while Neglecting Uninformative Textual Styles for AI-Generated Peer Review Detection [60.52240468810558]
我々は、AI生成ピアレビューの詳細なデータセットの上に構築されたコンテンツ指向ベンチマークであるCoCoNUTSを紹介する。
また、マルチタスク学習フレームワークを介してAIレビュー検出を行うCoCoDetを開発し、レビューコンテンツにおけるAIのより正確で堅牢な検出を実現する。
論文 参考訳(メタデータ) (2025-08-28T06:03:11Z) - Safety by Measurement: A Systematic Literature Review of AI Safety Evaluation Methods [0.0]
この文献レビューは、急速に進化するAI安全性評価の分野を集約する。
それは、どの特性を計測するか、どのように測定するか、そしてこれらの測定がフレームワークにどのように統合されるかという、3つの次元に関する体系的な分類法を提案する。
論文 参考訳(メタデータ) (2025-05-08T16:55:07Z) - Improving Automated Secure Code Reviews: A Synthetic Dataset for Code Vulnerability Flaws [0.0]
本稿では,セキュリティ欠陥について特にコメントする脆弱性中心のレビューからなる合成データセットの作成を提案する。
弊社のアプローチでは,Large Language Models(LLMs)を利用して,脆弱性に対する人間的なコードレビューコメントを生成する。
論文 参考訳(メタデータ) (2025-04-22T23:07:24Z) - Advancing Embodied Agent Security: From Safety Benchmarks to Input Moderation [52.83870601473094]
エンボディード・エージェントは、複数のドメインにまたがって大きな潜在能力を示す。
既存の研究は主に、一般的な大言語モデルのセキュリティに重点を置いている。
本稿では, エンボディエージェントの保護を目的とした新しい入力モデレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-22T08:34:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。