論文の概要: Can An Old Fashioned Feature Extraction and A Light-weight Model Improve
Vulnerability Type Identification Performance?
- arxiv url: http://arxiv.org/abs/2306.14726v1
- Date: Mon, 26 Jun 2023 14:28:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 18:55:11.306000
- Title: Can An Old Fashioned Feature Extraction and A Light-weight Model Improve
Vulnerability Type Identification Performance?
- Title(参考訳): 古いファッション特徴抽出と軽量モデルにより脆弱性型識別性能は向上できるか?
- Authors: Hieu Dinh Vo and Son Nguyen
- Abstract要約: 脆弱性型識別(VTI)の問題点について検討する。
我々は、大規模な脆弱性セットに基づいて、VTIのためのよく知られた、先進的な事前訓練モデルの性能を評価する。
ベースラインアプローチの予測を洗練させるために,軽量な独立コンポーネントを導入する。
- 参考スコア(独自算出の注目度): 6.423483122892239
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in automated vulnerability detection have achieved potential
results in helping developers determine vulnerable components. However, after
detecting vulnerabilities, investigating to fix vulnerable code is a
non-trivial task. In fact, the types of vulnerability, such as buffer overflow
or memory corruption, could help developers quickly understand the nature of
the weaknesses and localize vulnerabilities for security analysis. In this
work, we investigate the problem of vulnerability type identification (VTI).
The problem is modeled as the multi-label classification task, which could be
effectively addressed by "pre-training, then fine-tuning" framework with deep
pre-trained embedding models. We evaluate the performance of the well-known and
advanced pre-trained models for VTI on a large set of vulnerabilities.
Surprisingly, their performance is not much better than that of the classical
baseline approach with an old-fashioned bag-of-word, TF-IDF. Meanwhile, these
deep neural network approaches cost much more resources and require GPU. We
also introduce a lightweight independent component to refine the predictions of
the baseline approach. Our idea is that the types of vulnerabilities could
strongly correlate to certain code tokens (distinguishing tokens) in several
crucial parts of programs. The distinguishing tokens for each vulnerability
type are statistically identified based on their prevalence in the type versus
the others. Our results show that the baseline approach enhanced by our
component can outperform the state-of-the-art deep pre-trained approaches while
retaining very high efficiency. Furthermore, the proposed component could also
improve the neural network approaches by up to 92.8% in macro-average F1.
- Abstract(参考訳): 自動脆弱性検出の最近の進歩は、開発者が脆弱なコンポーネントを決定するのに役立つ可能性がある。
しかし、脆弱性を検出した後、脆弱性のあるコードを修正する調査は簡単ではない。
実際、バッファオーバーフローやメモリ破損のような脆弱性の種類は、開発者は脆弱性の性質を素早く理解し、セキュリティ分析の脆弱性をローカライズするのに役立ちます。
本研究では脆弱性タイプ識別(vti)の問題について検討する。
この問題はマルチラベル分類タスクとしてモデル化され、"事前トレーニング、次に微調整"フレームワークと深い事前学習された埋め込みモデルによって効果的に対処できる。
我々は,vtiのよく知られた高度な事前学習モデルの性能を,多数の脆弱性に対して評価する。
驚いたことに、彼らのパフォーマンスは、昔ながらの単語のバッグであるTF-IDFを使った古典的なベースラインアプローチよりもそれほど良くない。
一方、これらのディープニューラルネットワークアプローチは、より多くのリソースとGPUを必要とする。
また,ベースラインアプローチの予測を洗練するために,軽量な独立コンポーネントを導入する。
私たちの考えでは、脆弱性の種類は、プログラムのいくつかの重要な部分における特定のコードトークン(識別トークン)と強く相関する可能性がある。
各脆弱性タイプの区別トークンは、その型と他の型との有病率に基づいて統計的に識別される。
その結果,本コンポーネントによって強化されたベースラインアプローチは,高い効率を維持しつつ,最先端の深層事前学習アプローチを上回ることができることがわかった。
さらに、提案するコンポーネントは、マクロ平均f1の92.8%までニューラルネットワークアプローチを改善することができる。
関連論文リスト
- Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - LIVABLE: Exploring Long-Tailed Classification of Software Vulnerability
Types [18.949810432641772]
本稿では,LIVABLE と呼ばれる,Long-taIled ソフトウェア VulnerABiLity 型分類手法を提案する。
LIVABLEは(1)脆弱性表現学習モジュールを含む2つのモジュールで構成される。
シーケンシャル・ツー・シーケンスモデルも脆弱性表現を強化するために関与する。
論文 参考訳(メタデータ) (2023-06-12T08:14:16Z) - Learning to Quantize Vulnerability Patterns and Match to Locate
Statement-Level Vulnerabilities [19.6975205650411]
さまざまな脆弱性パターンを表す量子化されたベクトルで構成される脆弱性コードブックが学習される。
推論の間、コードブックは、すべての学習パターンにマッチし、潜在的な脆弱性の存在を予測するために反復される。
提案手法は188,000以上のC/C++関数からなる実世界のデータセットに対して広範に評価された。
論文 参考訳(メタデータ) (2023-05-26T04:13:31Z) - An Unbiased Transformer Source Code Learning with Semantic Vulnerability
Graph [3.3598755777055374]
現在の脆弱性スクリーニング技術は、新しい脆弱性を特定したり、開発者がコード脆弱性と分類を提供するのに効果がない。
これらの問題に対処するために,変換器 "RoBERTa" とグラフ畳み込みニューラルネットワーク (GCN) を組み合わせたマルチタスク・アンバイアス脆弱性分類器を提案する。
本稿では、逐次フロー、制御フロー、データフローからエッジを統合することで生成されたソースコードからのセマンティック脆弱性グラフ(SVG)表現と、Poacher Flow(PF)と呼ばれる新しいフローを利用したトレーニングプロセスを提案する。
論文 参考訳(メタデータ) (2023-04-17T20:54:14Z) - Dataflow Analysis-Inspired Deep Learning for Efficient Vulnerability
Detection [17.761541379830373]
DeepDFAは、データフロー分析にインスパイアされたグラフ学習フレームワークである。
最高性能のベースラインモデルより75倍速く、9分で訓練された。
平均して17の脆弱性のうち8.7が検出され、パッチとバグの多いバージョンを区別することができた。
論文 参考訳(メタデータ) (2022-12-15T19:49:27Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Multi-context Attention Fusion Neural Network for Software Vulnerability
Identification [4.05739885420409]
ソースコードのセキュリティ脆弱性の共通カテゴリのいくつかを効率的に検出することを学ぶディープラーニングモデルを提案する。
モデルは、学習可能なパラメータの少ないコードセマンティクスの正確な理解を構築します。
提案したAIは、ベンチマークされたNIST SARDデータセットから特定のCWEに対して98.40%のF1スコアを達成する。
論文 参考訳(メタデータ) (2021-04-19T11:50:36Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - RobustBench: a standardized adversarial robustness benchmark [84.50044645539305]
ロバストネスのベンチマークにおける主な課題は、その評価がしばしばエラーを起こし、ロバストネス過大評価につながることである。
我々は,白箱攻撃と黒箱攻撃のアンサンブルであるAutoAttackを用いて,敵対的ロバスト性を評価する。
分散シフト,キャリブレーション,アウト・オブ・ディストリビューション検出,フェアネス,プライバシリーク,スムースネス,転送性に対するロバスト性の影響を解析した。
論文 参考訳(メタデータ) (2020-10-19T17:06:18Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。