論文の概要: FineWAVE: Fine-Grained Warning Verification of Bugs for Automated Static Analysis Tools
- arxiv url: http://arxiv.org/abs/2403.16032v1
- Date: Sun, 24 Mar 2024 06:21:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-26 17:55:17.214812
- Title: FineWAVE: Fine-Grained Warning Verification of Bugs for Automated Static Analysis Tools
- Title(参考訳): FineWAVE: 自動静的解析ツールのためのバグの微粒化警告検証
- Authors: Han Liu, Jian Zhang, Cen Zhang, Xiaohan Zhang, Kaixuan Li, Sen Chen, Shang-Wei Lin, Yixiang Chen, Xinhua Li, Yang Liu,
- Abstract要約: ソースコードの細粒度セマンティクスとASATからの警告の両方をキャプチャするLSTMベースの新しいモデルを提案する。
我々はFineWAVEを評価するためにデータセットについて広範な実験を行った。
F1スコアは97.79%で誤報を低減し,67.06%で実際の警報を確認できた。
- 参考スコア(独自算出の注目度): 18.927121513404924
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The continual expansion of software size and complexity has led to an increased focus on reducing defects and bugs during development. Although Automated Static Analysis Tools (ASATs) offer help, in practice, the significant number of false positives can impede developers' productivity and confidence in the tools. Therefore, previous research efforts have explored learning-based methods to validate the reported warnings. Nevertheless, there are still some limitations. (1) The granularity of prior research is coarse, as it focuses on identifying either actionable warnings throughout extensive development histories or potential true warnings at the function level. These approaches lack specificity regarding individual bugs and warnings. (2) Machine learning-based approaches need much manual effort for feature engineering while existing deep learning-based approaches ignore key semantics between source code and warnings. (3) The small number of selected projects hinders the comprehensive evaluation of these approaches. In this paper, we proposed a fine-grained warning verification approach that is sensitive to bugs for improving the results of ASATs, namely \ourtool. Specifically, we design a novel LSTM-based model that captures both fine-grained semantics of source code and warnings from ASATs and highlights their correlations with cross-attention. To tackle the data scarcity of training and evaluation, we collected a large-scale dataset of 280,273 warnings, namely FineWA. It is ten times larger than the existing largest dataset. Then, we conducted extensive experiments on the dataset to evaluate FineWAVE. The experimental results demonstrate the effectiveness of our approach, with an F1-score of 97.79% for reducing false alarms and 67.06% for confirming actual warnings, which also significantly outperforms all baselines.
- Abstract(参考訳): ソフトウェアのサイズと複雑さの継続的な拡大は、開発中の欠陥やバグの削減に重点を置きました。
Automated Static Analysis Tools (ASATs)は助けを提供するが、実際には、偽陽性のかなりの数が開発者の生産性とツールへの信頼を妨げる可能性がある。
そのため、過去の研究は、報告された警告を検証するための学習に基づく手法を探求してきた。
それでも、いくつかの制限がある。
1)先行研究の粒度は、広範な開発史を通して実行可能な警告、あるいは機能レベルでの潜在的な真の警告を識別することに焦点を当てているため、粗雑である。
これらのアプローチには、個々のバグや警告に関する特異性がない。
2) 機械学習ベースのアプローチは機能エンジニアリングに多くの手作業を必要とする一方で,既存のディープラーニングベースのアプローチはソースコードと警告の主な意味を無視する。
(3) 少数の選択されたプロジェクトがこれらのアプローチの総合的な評価を妨げている。
本稿では,ASATの結果を改善するためのバグに敏感な,きめ細かい警告検証手法を提案する。
具体的には,ソースコードの細粒度セマンティクスとASATからの警告の両方を捉えるLSTMベースの新しいモデルを構築し,それらの相互注意との関係を強調する。
トレーニングと評価のデータ不足に対処するため,大規模な280,273件の警告データセット,すなわちFineWAを収集した。
既存の最大のデータセットの10倍の大きさです。
次に、FineWAVEを評価するために、データセットに関する広範な実験を行った。
F1スコアは97.79%で誤報を低減し67.06%で実際の警報を確認できた。
関連論文リスト
- Exploring Automatic Cryptographic API Misuse Detection in the Era of LLMs [60.32717556756674]
本稿では,暗号誤用の検出において,大規模言語モデルを評価するための体系的評価フレームワークを提案する。
11,940個のLCM生成レポートを詳細に分析したところ、LSMに固有の不安定性は、報告の半数以上が偽陽性になる可能性があることがわかった。
最適化されたアプローチは、従来の手法を超え、確立されたベンチマークでこれまで知られていなかった誤用を明らかにすることで、90%近い顕著な検出率を達成する。
論文 参考訳(メタデータ) (2024-07-23T15:31:26Z) - Robust Tiny Object Detection in Aerial Images amidst Label Noise [50.257696872021164]
本研究は,ノイズラベル管理下での微小物体検出の問題に対処する。
本稿では,DN-TOD(Denoising Tiny Object Detector)を提案する。
本手法は,1段と2段の両方のオブジェクト検出パイプラインにシームレスに統合できる。
論文 参考訳(メタデータ) (2024-01-16T02:14:33Z) - Quieting the Static: A Study of Static Analysis Alert Suppressions [7.324969824727792]
我々は、FinderbugsやSpotbugsを使って、設定やソースコードのアノテーションを警告する1,425のオープンソースプロジェクトについて検討する。
ほとんどの警告は抑制されているが、一部の警告は頻繁に抑圧されている。
発見は、静的解析ツールの使用に関するコミュニケーションと教育の改善の必要性を浮き彫りにする。
論文 参考訳(メタデータ) (2023-11-13T17:16:25Z) - ACWRecommender: A Tool for Validating Actionable Warnings with Weak
Supervision [10.040337069728569]
静的解析ツールは潜在的なバグを見つけるために開発者の間で人気を集めているが、その広く採用されていることは、偽のアラーム率の高さによって妨げられている。
従来の研究は、行動警告の概念を提案し、行動警告と誤警報を区別するために機械学習手法を適用した。
本稿では,ACWRecommenderと呼ばれる2段階のフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-18T12:35:28Z) - Infrared: A Meta Bug Detector [10.541969253100815]
我々はメタバグ検出と呼ばれる新しいアプローチを提案し、既存の学習ベースのバグ検出よりも3つの重要な利点を提供している。
我々のメタバグ検出装置(MBD)は,ヌルポインタの参照,配列インデックスのアウト・オブ・バウンド,ファイルハンドルのリーク,さらには並列プログラムにおけるデータ競合など,さまざまなバグの発見に有効であることを示す。
論文 参考訳(メタデータ) (2022-09-18T09:08:51Z) - Improving the Adversarial Robustness of NLP Models by Information
Bottleneck [112.44039792098579]
非破壊機能は敵によって容易に操作でき、NLPモデルを騙すことができる。
本研究では,情報ボトルネック理論を用いて,タスク固有のロバストな特徴を捕捉し,非ロバストな特徴を除去する可能性を検討する。
情報ボトルネックに基づく手法を用いてトレーニングしたモデルでは,ロバストな精度で大幅な改善が達成できることを示す。
論文 参考訳(メタデータ) (2022-06-11T12:12:20Z) - Learning to Reduce False Positives in Analytic Bug Detectors [12.733531603080674]
偽陽性のバグ警告を識別するためのトランスフォーマーに基づく学習手法を提案する。
我々は,静的解析の精度を17.5%向上させることができることを示した。
論文 参考訳(メタデータ) (2022-03-08T04:26:26Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - VELVET: a noVel Ensemble Learning approach to automatically locate
VulnErable sTatements [62.93814803258067]
本稿では,ソースコード中の脆弱な文を見つけるための新しいアンサンブル学習手法であるVELVETを提案する。
我々のモデルは、グラフベースとシーケンスベースニューラルネットワークを組み合わせて、プログラムグラフの局所的およびグローバル的コンテキストを捕捉する。
VELVETは、合成データと実世界のデータに対して、それぞれ99.6%と43.6%の精度を達成している。
論文 参考訳(メタデータ) (2021-12-20T22:45:27Z) - Tracking the risk of a deployed model and detecting harmful distribution
shifts [105.27463615756733]
実際には、デプロイされたモデルのパフォーマンスが大幅に低下しないという、良心的なシフトを無視することは理にかなっている。
我々は,警告を発射する有効な方法は,(a)良性な警告を無視しながら有害なシフトを検知し,(b)誤報率を増大させることなく,モデル性能の連続的なモニタリングを可能にすることを論じる。
論文 参考訳(メタデータ) (2021-10-12T17:21:41Z) - Assessing Validity of Static Analysis Warnings using Ensemble Learning [4.05739885420409]
静的分析(SA)ツールは、コードの潜在的な弱点を特定し、事前に修正するために使われ、コードが開発中である。
これらのルールベースの静的解析ツールは一般的に、実際のものとともに多くの誤った警告を報告します。
機械学習(ML)ベースの学習プロセスを提案し、ソースコード、履歴コミットデータ、および分類器アンサンブルを使用してTrue警告を優先します。
論文 参考訳(メタデータ) (2021-04-21T19:39:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。