論文の概要: Enhancing Large Language Models with Faster Code Preprocessing for Vulnerability Detection
- arxiv url: http://arxiv.org/abs/2505.05600v1
- Date: Thu, 08 May 2025 19:00:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-12 20:40:10.057982
- Title: Enhancing Large Language Models with Faster Code Preprocessing for Vulnerability Detection
- Title(参考訳): 脆弱性検出のための高速コード前処理による大規模言語モデルの強化
- Authors: José Gonçalves, Miguel Silva, Eva Maia, Isabel Praça,
- Abstract要約: 既存のSCoPEフレームワーク上に構築し、パフォーマンスを改善した拡張バージョンであるSCoPE2を導入します。
SCoPE2による処理時間を97.3%削減し,脆弱性検出のためのLarge Language Model(LLM)のF1スコアを改良した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The application of Artificial Intelligence has become a powerful approach to detecting software vulnerabilities. However, effective vulnerability detection relies on accurately capturing the semantic structure of code and its contextual relationships. Given that the same functionality can be implemented in various forms, a preprocessing tool that standardizes code representation is important. This tool must be efficient, adaptable across programming languages, and capable of supporting new transformations. To address this challenge, we build on the existing SCoPE framework and introduce SCoPE2, an enhanced version with improved performance. We compare both versions in terms of processing time and memory usage and evaluate their impact on a Large Language Model (LLM) for vulnerability detection. Our results show a 97.3\% reduction in processing time with SCoPE2, along with an improved F1-score for the LLM, solely due to the refined preprocessing approach.
- Abstract(参考訳): 人工知能の応用は、ソフトウェアの脆弱性を検出するための強力なアプローチとなっている。
しかし、効果的な脆弱性検出は、コードのセマンティック構造とそのコンテキスト関係を正確に把握することに依存する。
同じ機能をさまざまな形式で実装できることを考えると、コード表現を標準化する前処理ツールが重要です。
このツールは効率的で、プログラミング言語にまたがって適応でき、新しいトランスフォーメーションをサポートする必要がある。
この課題に対処するため、既存のSCoPEフレームワーク上に構築し、パフォーマンスを改善したSCoPE2を導入した。
処理時間とメモリ使用量の両バージョンを比較し,脆弱性検出のためのLarge Language Model(LLM)への影響を評価する。
以上の結果から,SCoPE2による処理時間を97.3倍に削減し,LLMのF1スコアを改良した。
関連論文リスト
- Adaptive Tool Use in Large Language Models with Meta-Cognition Trigger [49.81945268343162]
我々は,外部ツール利用のための適応型意思決定戦略であるMeCoを提案する。
MeCoは表現空間の高レベル認知信号をキャプチャし、ツールを呼び出すタイミングを指示する。
実験の結果,MeCoはLSMの内部認知信号を正確に検出し,ツール使用による意思決定を大幅に改善することがわかった。
論文 参考訳(メタデータ) (2025-02-18T15:45:01Z) - Evaluating Large Language Models in Vulnerability Detection Under Variable Context Windows [17.088307683654577]
本研究では,トークン化されたJavaコード長が脆弱性検出における10のLLMの精度と明示性に与える影響について検討した。
GPT-4やMistral,Mixtralといったモデル間の不整合は堅牢性を示すものもあれば,トークン化長とパフォーマンスとの間に重要な相関性を示すものもある。
論文 参考訳(メタデータ) (2025-01-30T20:44:46Z) - Evaluating Pre-Trained Models for Multi-Language Vulnerability Patching [3.220818227251765]
本稿では,事前学習型言語モデルであるCodeBERTとCodeT5の脆弱性パッチ自動適用の可能性について検討する。
これらのモデルの精度、計算効率、脆弱性のあるコードパッチの長さがパフォーマンスに与える影響について評価する。
論文 参考訳(メタデータ) (2025-01-13T13:51:05Z) - Enhancing Security in Third-Party Library Reuse -- Comprehensive Detection of 1-day Vulnerability through Code Patch Analysis [8.897599530972638]
サードパーティライブラリ(TPL)は、TPLのメンテナンスが低いため、脆弱性(1日脆弱性と呼ばれる)を導入することができる。
VULTUREは、脆弱なTPLの再利用から生じる1日間の脆弱性を特定することを目的としている。
VULTUREは178個のTPLから175個の脆弱性を特定した。
論文 参考訳(メタデータ) (2024-11-29T12:02:28Z) - SCoPE: Evaluating LLMs for Software Vulnerability Detection [0.0]
この研究は、コード関連タスクのモデルをトレーニングするために一般的に使用されるCVEFixesデータセットを調査し、洗練する。
SCoPEが生成した出力はCVEFixesの新バージョンを作成するために使われた。
その結果,SCoPEは評価されたサブセット内の905個の複製の同定に有効であった。
論文 参考訳(メタデータ) (2024-07-19T15:02:00Z) - M2CVD: Enhancing Vulnerability Semantic through Multi-Model Collaboration for Code Vulnerability Detection [52.4455893010468]
大規模言語モデル(LLM)は、コード理解において強力な能力を持つが、微調整コストとセマンティックアライメントの問題により、プロジェクト固有の最適化が制限される。
CodeBERTのようなコードモデルは微調整が容易であるが、複雑なコード言語から脆弱性のセマンティクスを学ぶことはしばしば困難である。
本稿では,M2CVD(Multi-Model Collaborative Vulnerability Detection)手法を提案する。
論文 参考訳(メタデータ) (2024-06-10T00:05:49Z) - Leveraging Code to Improve In-context Learning for Semantic Parsing [48.66031267718704]
In-context Learning (ICL) は、その少数ショットの性質と一般化の改善により、意味解析に魅力的なアプローチである。
我々は,(1)DSLの代わりにPythonなどの汎用プログラミング言語を用いた意味解析におけるICLの有効性を向上し,(2)ドメイン記述を構造化したプロンプトを増強する。
論文 参考訳(メタデータ) (2023-11-16T02:50:06Z) - Comparative Code Structure Analysis using Deep Learning for Performance
Prediction [18.226950022938954]
本稿では,アプリケーションの静的情報(抽象構文木やASTなど)を用いてコード構造の変化に基づいて性能変化を予測することの実現可能性を評価することを目的とする。
組込み学習手法の評価により,木系長短メモリ(LSTM)モデルでは,ソースコードの階層構造を利用して遅延表現を発見し,最大84%(個人的問題)と73%(複数の問題を含む組み合わせデータセット)の精度で性能変化を予測できることが示された。
論文 参考訳(メタデータ) (2021-02-12T16:59:12Z) - Exploring Software Naturalness through Neural Language Models [56.1315223210742]
ソフトウェア自然性仮説(Software Naturalness hypothesis)は、自然言語処理で使用されるのと同じ手法でプログラミング言語を理解することができると主張している。
この仮説は,事前学習されたトランスフォーマーベース言語モデルを用いて,コード解析タスクを実行することによって検討する。
論文 参考訳(メタデータ) (2020-06-22T21:56:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。