論文の概要: Distinguishing Look-Alike Innocent and Vulnerable Code by Subtle
Semantic Representation Learning and Explanation
- arxiv url: http://arxiv.org/abs/2308.11237v1
- Date: Tue, 22 Aug 2023 07:23:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 13:06:30.295685
- Title: Distinguishing Look-Alike Innocent and Vulnerable Code by Subtle
Semantic Representation Learning and Explanation
- Title(参考訳): サブセットセマンティック表現学習と説明によるルックライクな無害・脆弱性符号の識別
- Authors: Chao Ni, Xin Yin, Kaiwen Yang, Dehai Zhao, Zhenchang Xing and Xin Xia
- Abstract要約: SVulDは、直感的な説明とともに、脆弱性検出のための関数レベルのセマンティック埋め込みである。
我々は、広く使われている実用的脆弱性データセット上で大規模な実験を行い、それを4つの最先端(SOTA)アプローチと比較する。
実験結果から,SVulD は SOTA を著しく改善し,全ての SOTA よりも優れていた。
- 参考スコア(独自算出の注目度): 19.16930806875121
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Though many deep learning (DL)-based vulnerability detection approaches have
been proposed and indeed achieved remarkable performance, they still have
limitations in the generalization as well as the practical usage. More
precisely, existing DL-based approaches (1) perform negatively on prediction
tasks among functions that are lexically similar but have contrary semantics;
(2) provide no intuitive developer-oriented explanations to the detected
results. In this paper, we propose a novel approach named SVulD, a
function-level Subtle semantic embedding for Vulnerability Detection along with
intuitive explanations, to alleviate the above limitations. Specifically, SVulD
firstly trains a model to learn distinguishing semantic representations of
functions regardless of their lexical similarity. Then, for the detected
vulnerable functions, SVulD provides natural language explanations (e.g., root
cause) of results to help developers intuitively understand the
vulnerabilities. To evaluate the effectiveness of SVulD, we conduct large-scale
experiments on a widely used practical vulnerability dataset and compare it
with four state-of-the-art (SOTA) approaches by considering five performance
measures. The experimental results indicate that SVulD outperforms all SOTAs
with a substantial improvement (i.e., 23.5%-68.0% in terms of F1-score,
15.9%-134.8% in terms of PR-AUC and 7.4%-64.4% in terms of Accuracy). Besides,
we conduct a user-case study to evaluate the usefulness of SVulD for developers
on understanding the vulnerable code and the participants' feedback
demonstrates that SVulD is helpful for development practice.
- Abstract(参考訳): 多くのディープラーニング(DL)ベースの脆弱性検出アプローチが提案され、実際に顕著な性能を達成したが、一般化と実用性には限界がある。
より正確には、既存のdlベースのアプローチ(1)は、語彙的に類似するが逆意味を持つ関数間の予測タスクを負に実行し、(2)検出された結果に対する直感的な開発者指向の説明を提供しない。
本稿では,脆弱性検出のための関数レベルの微妙な意味埋め込み手法であるsvuldを提案する。
具体的には、SVulDはまず、語彙的類似性に関係なく関数の意味表現を区別することを学ぶためにモデルを訓練する。
そして、検出された脆弱性関数に対して、SVulDは、開発者が脆弱性を直感的に理解できるように、結果の自然言語説明(ルート原因など)を提供する。
SVulDの有効性を評価するため,広く利用されている実用的脆弱性データセットを用いて大規模な実験を行い,その4つの方法と比較した。
実験の結果、SVulDは全てのSOTAよりも大幅に向上している(F1スコアでは23.5%-68.0%、PR-AUCでは15.9%-134.8%、精度では7.4%-64.4%)。
さらに,脆弱なコードを理解する上でのSVulDの有用性を評価するために,ユーザケーススタディを実施し,SVulDが開発実践に役立つことを示す。
関連論文リスト
- StagedVulBERT: Multi-Granular Vulnerability Detection with a Novel Pre-trained Code Model [13.67394549308693]
本研究では,新たな脆弱性検出フレームワークStagedVulBERTを紹介する。
CodeBERT-HLSコンポーネントはトークンレベルとステートメントレベルの両方でセマンティクスを同時にキャプチャするために設計されている。
粗粒度の脆弱性検出では、StagedVulBERTは92.26%のF1スコアを獲得し、最高のパフォーマンスメソッドよりも6.58%改善している。
論文 参考訳(メタデータ) (2024-10-08T07:46:35Z) - SAFE: Advancing Large Language Models in Leveraging Semantic and Syntactic Relationships for Software Vulnerability Detection [23.7268575752712]
ソフトウェア脆弱性(SV)は、安全クリティカルなセキュリティシステムにとって、一般的かつ重要な懸念事項として浮上している。
本稿では,SVDのソースコードデータから意味的・統語的関係を学習し,活用するための大規模言語モデルの能力を高める新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-02T00:49:02Z) - Revisiting the Performance of Deep Learning-Based Vulnerability Detection on Realistic Datasets [4.385369356819613]
本稿では,脆弱性検出モデルを評価するための実世界のシナリオを表すデータセットであるReal-Vulを紹介する。
DeepWukong、LineVul、ReVeal、IVDetectの評価では、パフォーマンスが大幅に低下し、精度は95パーセントまで低下し、F1スコアは91ポイントまで低下した。
オーバーフィッティングは重要な問題として認識され、改善手法が提案され、パフォーマンスが最大30%向上する可能性がある。
論文 参考訳(メタデータ) (2024-07-03T13:34:30Z) - Provably Neural Active Learning Succeeds via Prioritizing Perplexing Samples [53.95282502030541]
ニューラルネットワークベースのアクティブラーニング(NAL)は、ニューラルネットワークを使用してサンプルの小さなサブセットを選択してトレーニングする、費用対効果の高いデータ選択技術である。
我々は、機能学習の観点から、両方のクエリ基準ベースのNALの成功について、統一的な説明を提供することにより、一歩前進させようとする。
論文 参考訳(メタデータ) (2024-06-06T10:38:01Z) - Vulnerability Detection with Code Language Models: How Far Are We? [40.455600722638906]
PrimeVulは、脆弱性検出のためのコードLMのトレーニングと評価のための新しいデータセットである。
これは、人間の検証されたベンチマークに匹敵するラベルの精度を達成する、新しいデータラベリング技術を含んでいる。
また、厳密なデータ重複解消戦略と時系列データ分割戦略を実装して、データの漏洩問題を軽減している。
論文 参考訳(メタデータ) (2024-03-27T14:34:29Z) - Beyond Fidelity: Explaining Vulnerability Localization of Learning-based
Detectors [10.316819421902363]
近年,ディープラーニング(DL)モデルに基づく脆弱性検出装置の有効性が証明されている。
これらの検出器の意思決定プロセスを取り巻く不透明さは、セキュリティアナリストの理解を困難にしている。
グラフおよびシーケンス表現に基づく脆弱性検出のための10種類の説明手法の性能評価を行った。
論文 参考訳(メタデータ) (2024-01-05T07:37:35Z) - Understanding Before Recommendation: Semantic Aspect-Aware Review Exploitation via Large Language Models [53.337728969143086]
レコメンデーションシステムは、クリックやレビューのようなユーザとイテムのインタラクションを利用して表現を学習する。
従来の研究では、様々な側面や意図にまたがるユーザの嗜好をモデル化することで、推奨精度と解釈可能性を改善する。
そこで本研究では,意味的側面と認識的相互作用を明らかにするためのチェーンベースのプロンプト手法を提案する。
論文 参考訳(メタデータ) (2023-12-26T15:44:09Z) - XAL: EXplainable Active Learning Makes Classifiers Better Low-resource Learners [71.8257151788923]
低リソーステキスト分類のための新しい説明可能なアクティブラーニングフレームワーク(XAL)を提案する。
XALは分類器に対して、推論を正当化し、合理的な説明ができないラベルのないデータを掘り下げることを推奨している。
6つのデータセットの実験では、XALは9つの強いベースラインに対して一貫した改善を達成している。
論文 参考訳(メタデータ) (2023-10-09T08:07:04Z) - Improving the Adversarial Robustness of NLP Models by Information
Bottleneck [112.44039792098579]
非破壊機能は敵によって容易に操作でき、NLPモデルを騙すことができる。
本研究では,情報ボトルネック理論を用いて,タスク固有のロバストな特徴を捕捉し,非ロバストな特徴を除去する可能性を検討する。
情報ボトルネックに基づく手法を用いてトレーニングしたモデルでは,ロバストな精度で大幅な改善が達成できることを示す。
論文 参考訳(メタデータ) (2022-06-11T12:12:20Z) - VELVET: a noVel Ensemble Learning approach to automatically locate
VulnErable sTatements [62.93814803258067]
本稿では,ソースコード中の脆弱な文を見つけるための新しいアンサンブル学習手法であるVELVETを提案する。
我々のモデルは、グラフベースとシーケンスベースニューラルネットワークを組み合わせて、プログラムグラフの局所的およびグローバル的コンテキストを捕捉する。
VELVETは、合成データと実世界のデータに対して、それぞれ99.6%と43.6%の精度を達成している。
論文 参考訳(メタデータ) (2021-12-20T22:45:27Z) - Exploring Robustness of Unsupervised Domain Adaptation in Semantic
Segmentation [74.05906222376608]
クリーンな画像とそれらの逆の例との一致を、出力空間における対照的な損失によって最大化する、逆向きの自己スーパービジョンUDA(ASSUDA)を提案する。
i) セマンティックセグメンテーションにおけるUDA手法のロバスト性は未解明のままであり, (ii) 一般的に自己スーパービジョン(回転やジグソーなど) は分類や認識などのイメージタスクに有効であるが, セグメンテーションタスクの識別的表現を学習する重要な監視信号の提供には失敗している。
論文 参考訳(メタデータ) (2021-05-23T01:50:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。