論文の概要: Test Suites as a Source of Training Data for Static Analysis Alert
Classifiers
- arxiv url: http://arxiv.org/abs/2105.03523v1
- Date: Fri, 7 May 2021 22:17:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 14:35:06.333198
- Title: Test Suites as a Source of Training Data for Static Analysis Alert
Classifiers
- Title(参考訳): 静的解析アラート分類器のトレーニングデータとしてのテストスイート
- Authors: Lori Flynn and William Snavely and Zachary Kurtz
- Abstract要約: 静的解析テストスイートを新たなトレーニングデータソースとして利用することを提案する。
ケーススタディでは、Juliet C/C++テストスイートでさまざまな静的アナライザを実行することで、大量のアラートを生成しました。
このデータを使って分類器を訓練し、警告が偽陽性かどうかを予測しました。
- 参考スコア(独自算出の注目度): 0.6015898117103069
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Flaw-finding static analysis tools typically generate large volumes of code
flaw alerts including many false positives. To save on human effort to triage
these alerts, a significant body of work attempts to use machine learning to
classify and prioritize alerts. Identifying a useful set of training data,
however, remains a fundamental challenge in developing such classifiers in many
contexts. We propose using static analysis test suites (i.e., repositories of
"benchmark" programs that are purpose-built to test coverage and precision of
static analysis tools) as a novel source of training data. In a case study, we
generated a large quantity of alerts by executing various static analyzers on
the Juliet C/C++ test suite, and we automatically derived ground truth labels
for these alerts by referencing the Juliet test suite metadata. Finally, we
used this data to train classifiers to predict whether an alert is a false
positive. Our classifiers obtained high precision (90.2%) and recall (88.2%)
for a large number of code flaw types on a hold-out test set. This preliminary
result suggests that pre-training classifiers on test suite data could help to
jumpstart static analysis alert classification in data-limited contexts.
- Abstract(参考訳): 欠陥発見 静的解析ツールは通常、多くの偽陽性を含む大量のコード欠陥アラートを生成する。
これらのアラートをトリアージするための人間の努力を省くために、多くの作業が機械学習を使ってアラートの分類と優先順位付けを試みている。
しかし、有用なトレーニングデータのセットを特定することは、多くのコンテキストでそのような分類器を開発する上での基本的な課題である。
静的解析テストスイート(すなわち、テストカバレッジと静的解析ツールの精度をテストする目的で構築された"ベンチマーク"プログラムのリポジトリ)を、新しいトレーニングデータソースとして使用することを提案する。
ケーススタディでは、Juliet C/C++テストスイート上で様々な静的アナライザを実行することで、大量のアラートを生成し、Julietテストスイートメタデータを参照して、これらのアラートの基底真理ラベルを自動的に抽出した。
最後に、このデータを使って分類器を訓練し、警告が偽陽性かどうかを予測する。
我々の分類器はホールドアウトテストセットで多数のコード欠陥タイプに対して高精度 (90.2%) とリコール (88.2%) を得た。
この予備的な結果は、テストスイートデータに対する事前トレーニングの分類器が、データ制限コンテキストにおける静的解析アラートの分類を飛躍的に開始するのに役立つことを示唆している。
関連論文リスト
- Training-Free Deepfake Voice Recognition by Leveraging Large-Scale Pre-Trained Models [52.04189118767758]
一般化は、現在のオーディオディープフェイク検出器の主な問題である。
本稿では,オーディオディープフェイク検出のための大規模事前学習モデルの可能性について検討する。
論文 参考訳(メタデータ) (2024-05-03T15:27:11Z) - Deployment Prior Injection for Run-time Calibratable Object Detection [58.636806402337776]
検出器に追加のグラフ入力を導入し、事前にグラフが配置コンテキストを表す。
テストフェーズでは、事前に適切なデプロイメントコンテキストをグラフ編集を通じて検出器に注入することができる。
事前の配置が分かっていない場合でも、検出器は独自の予測を用いて、事前に近似した配置を用いて自己校正を行うことができる。
論文 参考訳(メタデータ) (2024-02-27T04:56:04Z) - Comprehensive Assessment of the Performance of Deep Learning Classifiers
Reveals a Surprising Lack of Robustness [2.1320960069210484]
本稿では,多種多様なデータを用いたベンチマーキング性能について論じる。
現在のディープニューラルネットワークは、最先端のロバスト性を生み出すと信じられている手法で訓練された者を含む、ある種のデータに間違いを犯すことに対して極めて脆弱であることが判明した。
論文 参考訳(メタデータ) (2023-08-08T08:50:27Z) - Characterizing the Optimal 0-1 Loss for Multi-class Classification with
a Test-time Attacker [57.49330031751386]
我々は,任意の離散データセット上の複数クラス分類器に対するテスト時間攻撃の存在下での損失に対する情報理論的下位境界を求める。
本稿では,データと敵対的制約から競合ハイパーグラフを構築する際に発生する最適0-1損失を求めるための一般的なフレームワークを提供する。
論文 参考訳(メタデータ) (2023-02-21T15:17:13Z) - Test-Time Adaptation via Self-Training with Nearest Neighbor Information [16.346069386394703]
オンラインテストデータのみを使用してトレーニング済みの分類器を適用することが重要である。
テスト時間適応の一般的なアプローチの1つは、自己学習である。
本稿では,近隣情報を用いた自己学習によるテスト時間適応手法を提案する。
論文 参考訳(メタデータ) (2022-07-08T05:02:15Z) - Learning to Reduce False Positives in Analytic Bug Detectors [12.733531603080674]
偽陽性のバグ警告を識別するためのトランスフォーマーに基づく学習手法を提案する。
我々は,静的解析の精度を17.5%向上させることができることを示した。
論文 参考訳(メタデータ) (2022-03-08T04:26:26Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Assessing Validity of Static Analysis Warnings using Ensemble Learning [4.05739885420409]
静的分析(SA)ツールは、コードの潜在的な弱点を特定し、事前に修正するために使われ、コードが開発中である。
これらのルールベースの静的解析ツールは一般的に、実際のものとともに多くの誤った警告を報告します。
機械学習(ML)ベースの学習プロセスを提案し、ソースコード、履歴コミットデータ、および分類器アンサンブルを使用してTrue警告を優先します。
論文 参考訳(メタデータ) (2021-04-21T19:39:20Z) - D2A: A Dataset Built for AI-Based Vulnerability Detection Methods Using
Differential Analysis [55.15995704119158]
静的解析ツールによって報告されたラベル問題に対する差分解析に基づくアプローチであるD2Aを提案する。
D2Aを使用して大きなラベル付きデータセットを生成し、脆弱性識別のためのモデルをトレーニングします。
論文 参考訳(メタデータ) (2021-02-16T07:46:53Z) - Robustness to Spurious Correlations in Text Classification via
Automatically Generated Counterfactuals [8.827892752465958]
自動生成された反実データを用いてトレーニングデータを増強し、堅牢なテキスト分類器のトレーニングを提案する。
因果的特徴を強調し,非因果的特徴を強調することで,ロバスト分類器は有意義で信頼性の高い予測を行うことを示す。
論文 参考訳(メタデータ) (2020-12-18T03:57:32Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。