論文の概要: Featherweight Assisted Vulnerability Discovery
- arxiv url: http://arxiv.org/abs/2202.02679v1
- Date: Sun, 6 Feb 2022 01:58:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-10 09:11:08.476640
- Title: Featherweight Assisted Vulnerability Discovery
- Title(参考訳): featherweight assisted vulnerability discovery
- Authors: David Binkley and Leon Moonen and Sibren Isaacman
- Abstract要約: 機能名を構成する単語が潜在的に脆弱な関数を予測できる範囲について検討する。
根底にある考え方は、特定の「危険な」単語を含む関数名は、弱い関数に付随する可能性が高いということである。
- 参考スコア(独自算出の注目度): 0.6875312133832078
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Predicting vulnerable source code helps to focus attention on those parts of
the code that need to be examined with more scrutiny. Recent work proposed the
use of function names as semantic cues that can be learned by a deep neural
network (DNN) to aid in the hunt for vulnerability of functions.
Combining identifier splitting, which splits each function name into its
constituent words, with a novel frequency-based algorithm, we explore the
extent to which the words that make up a function's name can predict
potentially vulnerable functions. In contrast to *lightweight* predictions by a
DNN that considers only function names, avoiding the use of a DNN provides
*featherweight* predictions. The underlying idea is that function names that
contain certain "dangerous" words are more likely to accompany vulnerable
functions. Of course, this assumes that the frequency-based algorithm can be
properly tuned to focus on truly dangerous words.
Because it is more transparent than a DNN, the frequency-based algorithm
enables us to investigate the inner workings of the DNN. If successful, this
investigation into what the DNN does and does not learn will help us train more
effective future models.
We empirically evaluate our approach on a heterogeneous dataset containing
over 73000 functions labeled vulnerable, and over 950000 functions labeled
benign. Our analysis shows that words alone account for a significant portion
of the DNN's classification ability. We also find that words are of greatest
value in the datasets with a more homogeneous vocabulary. Thus, when working
within the scope of a given project, where the vocabulary is unavoidably
homogeneous, our approach provides a cheaper, potentially complementary,
technique to aid in the hunt for source-code vulnerabilities. Finally, this
approach has the advantage that it is viable with orders of magnitude less
training data.
- Abstract(参考訳): 脆弱なソースコードの予測は、より精査されなければならないコードの一部に注意を払うのに役立つ。
近年の研究では、関数の脆弱性の探索を支援するために、ディープニューラルネットワーク(DNN)によって学習可能なセマンティックキューとして関数名を使用することが提案されている。
各関数名をその構成語に分割する識別子分割と、新たな周波数ベースのアルゴリズムを組み合わせることで、関数名を構成する単語が潜在的に脆弱な関数を予測できる程度を探索する。
関数名のみを考慮するDNNの*lightweight*予測とは対照的に、DNNの使用を避けることは*featherweight*予測を提供する。
基本的な考え方は、特定の「危険な」単語を含む関数名は、脆弱な機能を伴う可能性が高いということである。
もちろん、これは周波数ベースのアルゴリズムが本当に危険な単語に集中するように適切に調整できると仮定する。
DNNよりも透明性が高いため、周波数に基づくアルゴリズムにより、DNNの内部動作を調べることができる。
もし成功すれば、DNNが何をし、学習しないかについての調査は、より効果的な将来のモデルをトレーニングするのに役立ちます。
弱ラベル付き73,000以上の関数と良値付き950000以上の関数を含む異種データセットに対するアプローチを実験的に評価した。
分析の結果,単語のみがdnnの分類能力のかなりの部分を占めていることがわかった。
また、単語は、より均質な語彙を持つデータセットにおいて最も価値が高いことも分かりました。
このように、語彙が必然的に均一なプロジェクトの範囲内で作業する場合、我々のアプローチは、ソースコードの脆弱性のハントを支援するために、より安く、潜在的に補完的な技術を提供します。
最後に、このアプローチはトレーニングデータを桁違いに減らすことで実現可能であるという利点があります。
関連論文リスト
- GNN: Graph Neural Network and Large Language Model for Data Discovery [0.0]
我々のアルゴリズムであるGNNは、グラフニューラルネットワークと大規模言語モデルを用いて、テキストの型値を理解する。
GNNは、テキストタイプ値とユーザの好みを理解するという点でPLODの拡張と見なすことができる。
論文 参考訳(メタデータ) (2024-08-24T15:43:02Z) - SECNN: Squeeze-and-Excitation Convolutional Neural Network for Sentence
Classification [0.0]
畳み込みニューラルネットワーク(CNN)は畳み込みフィルタによってn-gramの特徴を抽出する能力を持つ。
文分類のためのSqueeze-and-Excitation Convolutional Neural Network (SECNN)を提案する。
論文 参考訳(メタデータ) (2023-12-11T03:26:36Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - What Can Be Learnt With Wide Convolutional Neural Networks? [69.55323565255631]
カーネルシステムにおける無限大の深層CNNについて検討する。
我々は,深部CNNが対象関数の空間スケールに適応していることを証明する。
我々は、別の深部CNNの出力に基づいて訓練された深部CNNの一般化誤差を計算して結論付ける。
論文 参考訳(メタデータ) (2022-08-01T17:19:32Z) - Nearest Neighbor Zero-Shot Inference [68.56747574377215]
kNN-Promptは、言語モデル(LM)を用いたゼロショット推論のためのk-nearest neighbor (kNN)検索拡張手法である。
ファジィ動詞化器は、各分類ラベルを自然言語トークンのセットに自動的に関連付けることで、下流タスクのスパースkNN分布を利用する。
実験により,kNN-Promptはドメイン適応に有効であり,さらに,kNN検索に使用するモデルのサイズに応じて,検索のメリットが増加することが示された。
論文 参考訳(メタデータ) (2022-05-27T07:00:59Z) - Short-Term Word-Learning in a Dynamically Changing Environment [63.025297637716534]
本稿では、単語/フレーズメモリと、このメモリにアクセスして単語やフレーズを正しく認識するためのメカニズムを用いて、エンドツーエンドのASRシステムを補完する方法を示す。
誤報がわずかに増加しただけで, 単語の検出速度が大幅に向上した。
論文 参考訳(メタデータ) (2022-03-29T10:05:39Z) - Semantic-Preserving Adversarial Text Attacks [85.32186121859321]
深層モデルの脆弱性を調べるために, Bigram と Unigram を用いた適応的セマンティック保存最適化法 (BU-SPO) を提案する。
提案手法は,既存手法と比較して最小の単語数を変更することで,攻撃成功率とセマンティックス率を最大化する。
論文 参考訳(メタデータ) (2021-08-23T09:05:18Z) - The Connection Between Approximation, Depth Separation and Learnability
in Neural Networks [70.55686685872008]
学習可能性と近似能力の関係について検討する。
対象関数の深いネットワークでの学習性は、より単純なクラスがターゲットを近似する能力に依存することを示す。
論文 参考訳(メタデータ) (2021-01-31T11:32:30Z) - Probabilistic Robustness Analysis for DNNs based on PAC Learning [14.558877524991752]
我々は、DNNを入力から出力までの関数 $boldsymbolf$ とみなし、与えられた入力に対する局所ロバスト性を考慮する。
目標ラベル $ell$ と攻撃ラベル $i$ に関してスコア差関数 $f_i-f_ell$ を学習する。
我々のフレームワークは、6.5ドルのニューロンを持つResNet152のような非常に大きなニューラルネットワークを処理でき、しばしば敵の例を生成する。
論文 参考訳(メタデータ) (2021-01-25T14:10:52Z) - CodNN -- Robust Neural Networks From Coded Classification [27.38642191854458]
ディープニューラルネットワーク(Deep Neural Networks、DNN)は、現在進行中の情報革命における革命的な力である。
DNNは、敵対的であろうとランダムであろうと、ノイズに非常に敏感である。
これは、DNNのハードウェア実装と、自律運転のような重要なアプリケーションへの展開において、根本的な課題となる。
提案手法により,DNNのデータ層あるいは内部層は誤り訂正符号で符号化され,ノイズ下での計算が成功することが保証される。
論文 参考訳(メタデータ) (2020-04-22T17:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。