論文の概要: Can An Old Fashioned Feature Extraction and A Light-weight Model Improve
Vulnerability Type Identification Performance?
- arxiv url: http://arxiv.org/abs/2306.14726v1
- Date: Mon, 26 Jun 2023 14:28:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 18:55:11.306000
- Title: Can An Old Fashioned Feature Extraction and A Light-weight Model Improve
Vulnerability Type Identification Performance?
- Title(参考訳): 古いファッション特徴抽出と軽量モデルにより脆弱性型識別性能は向上できるか?
- Authors: Hieu Dinh Vo and Son Nguyen
- Abstract要約: 脆弱性型識別(VTI)の問題点について検討する。
我々は、大規模な脆弱性セットに基づいて、VTIのためのよく知られた、先進的な事前訓練モデルの性能を評価する。
ベースラインアプローチの予測を洗練させるために,軽量な独立コンポーネントを導入する。
- 参考スコア(独自算出の注目度): 6.423483122892239
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in automated vulnerability detection have achieved potential
results in helping developers determine vulnerable components. However, after
detecting vulnerabilities, investigating to fix vulnerable code is a
non-trivial task. In fact, the types of vulnerability, such as buffer overflow
or memory corruption, could help developers quickly understand the nature of
the weaknesses and localize vulnerabilities for security analysis. In this
work, we investigate the problem of vulnerability type identification (VTI).
The problem is modeled as the multi-label classification task, which could be
effectively addressed by "pre-training, then fine-tuning" framework with deep
pre-trained embedding models. We evaluate the performance of the well-known and
advanced pre-trained models for VTI on a large set of vulnerabilities.
Surprisingly, their performance is not much better than that of the classical
baseline approach with an old-fashioned bag-of-word, TF-IDF. Meanwhile, these
deep neural network approaches cost much more resources and require GPU. We
also introduce a lightweight independent component to refine the predictions of
the baseline approach. Our idea is that the types of vulnerabilities could
strongly correlate to certain code tokens (distinguishing tokens) in several
crucial parts of programs. The distinguishing tokens for each vulnerability
type are statistically identified based on their prevalence in the type versus
the others. Our results show that the baseline approach enhanced by our
component can outperform the state-of-the-art deep pre-trained approaches while
retaining very high efficiency. Furthermore, the proposed component could also
improve the neural network approaches by up to 92.8% in macro-average F1.
- Abstract(参考訳): 自動脆弱性検出の最近の進歩は、開発者が脆弱なコンポーネントを決定するのに役立つ可能性がある。
しかし、脆弱性を検出した後、脆弱性のあるコードを修正する調査は簡単ではない。
実際、バッファオーバーフローやメモリ破損のような脆弱性の種類は、開発者は脆弱性の性質を素早く理解し、セキュリティ分析の脆弱性をローカライズするのに役立ちます。
本研究では脆弱性タイプ識別(vti)の問題について検討する。
この問題はマルチラベル分類タスクとしてモデル化され、"事前トレーニング、次に微調整"フレームワークと深い事前学習された埋め込みモデルによって効果的に対処できる。
我々は,vtiのよく知られた高度な事前学習モデルの性能を,多数の脆弱性に対して評価する。
驚いたことに、彼らのパフォーマンスは、昔ながらの単語のバッグであるTF-IDFを使った古典的なベースラインアプローチよりもそれほど良くない。
一方、これらのディープニューラルネットワークアプローチは、より多くのリソースとGPUを必要とする。
また,ベースラインアプローチの予測を洗練するために,軽量な独立コンポーネントを導入する。
私たちの考えでは、脆弱性の種類は、プログラムのいくつかの重要な部分における特定のコードトークン(識別トークン)と強く相関する可能性がある。
各脆弱性タイプの区別トークンは、その型と他の型との有病率に基づいて統計的に識別される。
その結果,本コンポーネントによって強化されたベースラインアプローチは,高い効率を維持しつつ,最先端の深層事前学習アプローチを上回ることができることがわかった。
さらに、提案するコンポーネントは、マクロ平均f1の92.8%までニューラルネットワークアプローチを改善することができる。
関連論文リスト
- Enhancing Pre-Trained Language Models for Vulnerability Detection via Semantic-Preserving Data Augmentation [4.374800396968465]
本稿では,脆弱性検出のための事前学習言語モデルの性能向上を目的としたデータ拡張手法を提案する。
一連の代表的なコード事前訓練モデルの微調整に当社のデータセットを組み込むことで、最大10.1%の精度向上と23.6%のF1増加を達成することができる。
論文 参考訳(メタデータ) (2024-09-30T21:44:05Z) - Enhancing Code Vulnerability Detection via Vulnerability-Preserving Data Augmentation [29.72520866016839]
ソースコードの脆弱性検出は、潜在的な攻撃からソフトウェアシステムを保護するための固有の脆弱性を特定することを目的としている。
多くの先行研究は、様々な脆弱性の特徴を見落とし、問題をバイナリ(0-1)分類タスクに単純化した。
FGVulDetは、さまざまな脆弱性タイプの特徴を識別するために複数の分類器を使用し、その出力を組み合わせて特定の脆弱性タイプを特定する。
FGVulDetはGitHubの大規模なデータセットでトレーニングされており、5種類の脆弱性を含んでいる。
論文 参考訳(メタデータ) (2024-04-15T09:10:52Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - LIVABLE: Exploring Long-Tailed Classification of Software Vulnerability
Types [18.949810432641772]
本稿では,LIVABLE と呼ばれる,Long-taIled ソフトウェア VulnerABiLity 型分類手法を提案する。
LIVABLEは(1)脆弱性表現学習モジュールを含む2つのモジュールで構成される。
シーケンシャル・ツー・シーケンスモデルも脆弱性表現を強化するために関与する。
論文 参考訳(メタデータ) (2023-06-12T08:14:16Z) - Learning to Quantize Vulnerability Patterns and Match to Locate
Statement-Level Vulnerabilities [19.6975205650411]
さまざまな脆弱性パターンを表す量子化されたベクトルで構成される脆弱性コードブックが学習される。
推論の間、コードブックは、すべての学習パターンにマッチし、潜在的な脆弱性の存在を予測するために反復される。
提案手法は188,000以上のC/C++関数からなる実世界のデータセットに対して広範に評価された。
論文 参考訳(メタデータ) (2023-05-26T04:13:31Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Multi-context Attention Fusion Neural Network for Software Vulnerability
Identification [4.05739885420409]
ソースコードのセキュリティ脆弱性の共通カテゴリのいくつかを効率的に検出することを学ぶディープラーニングモデルを提案する。
モデルは、学習可能なパラメータの少ないコードセマンティクスの正確な理解を構築します。
提案したAIは、ベンチマークされたNIST SARDデータセットから特定のCWEに対して98.40%のF1スコアを達成する。
論文 参考訳(メタデータ) (2021-04-19T11:50:36Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - RobustBench: a standardized adversarial robustness benchmark [84.50044645539305]
ロバストネスのベンチマークにおける主な課題は、その評価がしばしばエラーを起こし、ロバストネス過大評価につながることである。
我々は,白箱攻撃と黒箱攻撃のアンサンブルであるAutoAttackを用いて,敵対的ロバスト性を評価する。
分散シフト,キャリブレーション,アウト・オブ・ディストリビューション検出,フェアネス,プライバシリーク,スムースネス,転送性に対するロバスト性の影響を解析した。
論文 参考訳(メタデータ) (2020-10-19T17:06:18Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。