論文の概要: Understanding and Detecting Annotation-Induced Faults of Static
Analyzers
- arxiv url: http://arxiv.org/abs/2402.14366v1
- Date: Thu, 22 Feb 2024 08:09:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-23 16:06:09.306504
- Title: Understanding and Detecting Annotation-Induced Faults of Static
Analyzers
- Title(参考訳): 静的アナライザのアノテーションによる障害の理解と検出
- Authors: Huaien Zhang and Yu Pei and Shuyun Liang and Shin Hwei Tan
- Abstract要約: 本稿では,注釈誘発断層(AIF)の総合的研究について紹介する。
PMD、SpotBugs、CheckStyle、Infer、SonarQube、Sootの6つのオープンソースおよび人気のある静的アナライザの246の問題を解析した。
- 参考スコア(独自算出の注目度): 4.824956210843882
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Static analyzers can reason about the properties and behaviors of programs
and detect various issues without executing them. Hence, they should extract
the necessary information to understand the analyzed program well. Annotation
has been a widely used feature for different purposes in Java since the
introduction of Java 5. Annotations can change program structures and convey
semantics information without awareness of static analyzers, consequently
leading to imprecise analysis results. This paper presents the first
comprehensive study of annotation-induced faults (AIF) by analyzing 246 issues
in six open-source and popular static analyzers (i.e., PMD, SpotBugs,
CheckStyle, Infer, SonarQube, and Soot). We analyzed the issues' root causes,
symptoms, and fix strategies and derived ten findings and some practical
guidelines for detecting and repairing annotation-induced faults. Moreover, we
developed an automated testing framework called AnnaTester based on three
metamorphic relations originating from the findings. AnnaTester generated new
tests based on the official test suites of static analyzers and unveiled 43 new
faults, 20 of which have been fixed. The results confirm the value of our study
and its findings.
- Abstract(参考訳): 静的アナライザはプログラムの特性と動作を推論し、実行せずに様々な問題を検出することができる。
したがって、分析プログラムを十分に理解するために必要な情報を抽出する必要がある。
アノテーションは、java 5の導入以来、さまざまな目的でjavaで広く使われている機能である。
アノテーションはプログラムの構造を変更し、静的アナライザを意識せずに意味情報を伝達することができ、その結果、不正確な分析結果をもたらす。
本稿では,6つのオープンソースおよびポピュラーな静的アナライザ (PMD, SpotBugs, CheckStyle, Infer, SonarQube, Soot) における246の問題を解析し,アノテーション誘発障害(AIF)の包括的研究を行った。
問題点の根本原因,症状,修正戦略を分析し,アノテーションによる障害の検出と修復のための10の知見と実用的なガイドラインを導出した。
さらに,この結果から得られた3つの変成関係に基づいて,AnnaTesterという自動テストフレームワークを開発した。
AnnaTesterは、静的アナライザの公式テストスイートに基づいて新しいテストを生成し、43の新たな障害を公表した。
その結果,本研究の価値と結果が明らかとなった。
関連論文リスト
- An Empirical Study of False Negatives and Positives of Static Code Analyzers From the Perspective of Historical Issues [6.463945330904755]
3つの人気のある静的コードアナライザから, 偽陰性(FN)と偽陽性(FP)の350の歴史的問題について, 最初の系統的研究を行った。
この戦略は14のFN/FPの新たな問題に成功し、そのうち11が確認され、9がすでに開発者によって修正されている。
論文 参考訳(メタデータ) (2024-08-25T14:57:59Z) - Scaling Symbolic Execution to Large Software Systems [0.0]
シンボル実行は、プログラム検証とバグ検出ソフトウェアの両方で使用される一般的な静的解析手法である。
我々は、Clang Static Analyzerと呼ばれるエラー検出フレームワークと、その周辺に構築されたインフラストラクチャーであるCodeCheckerに焦点を当てた。
論文 参考訳(メタデータ) (2024-08-04T02:54:58Z) - Customizing Static Analysis using Codesearch [1.7205106391379021]
様々な静的解析アプリケーションを記述するのによく使われる言語は、Datalogである。
アプリケーションセキュリティと静的分析の専門家のための慣れ親しんだフレームワークを提供すると同時に、開発者がカスタムの静的解析ツールを簡単に構築できるようにすることを目標としています。
我々のアプローチでは,高速ランタイムを持つプログラムのみを含むDatalogの亜種であるStarLangという言語を導入しています。
論文 参考訳(メタデータ) (2024-04-19T09:50:02Z) - Supporting Error Chains in Static Analysis for Precise Evaluation
Results and Enhanced Usability [2.8557828838739527]
静的解析は、固定位置よりも脆弱性が現れる場所を報告する傾向にある。
これは仮定された偽陽性や不正確な結果を引き起こす可能性がある。
我々は、既存の静的解析アルゴリズムを適応させ、マニフェストと固定位置を区別できるように設計した。
論文 参考訳(メタデータ) (2024-03-12T16:46:29Z) - Text2Analysis: A Benchmark of Table Question Answering with Advanced
Data Analysis and Unclear Queries [67.0083902913112]
高度な解析タスクを取り入れたText2Analysisベンチマークを開発した。
また,5つのイノベーティブかつ効果的なアノテーション手法を開発した。
3つの異なる指標を用いて5つの最先端モデルを評価する。
論文 参考訳(メタデータ) (2023-12-21T08:50:41Z) - The Unreliability of Explanations in Few-Shot In-Context Learning [50.77996380021221]
我々は、テキスト上の推論、すなわち質問応答と自然言語推論を含む2つのNLPタスクに焦点を当てる。
入力と論理的に整合した説明は、通常より正確な予測を示す。
本稿では,説明の信頼性に基づいてモデル予測を校正する枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-06T17:57:58Z) - Learning to Reduce False Positives in Analytic Bug Detectors [12.733531603080674]
偽陽性のバグ警告を識別するためのトランスフォーマーに基づく学習手法を提案する。
我々は,静的解析の精度を17.5%向上させることができることを示した。
論文 参考訳(メタデータ) (2022-03-08T04:26:26Z) - Auditing AI models for Verified Deployment under Semantic Specifications [65.12401653917838]
AuditAIは、解釈可能な形式検証とスケーラビリティのギャップを埋める。
AuditAIは、画素空間の摂動のみを用いた検証の限界に対処しながら、検証と認定トレーニングのための制御されたバリエーションを得られるかを示す。
論文 参考訳(メタデータ) (2021-09-25T22:53:24Z) - D2A: A Dataset Built for AI-Based Vulnerability Detection Methods Using
Differential Analysis [55.15995704119158]
静的解析ツールによって報告されたラベル問題に対する差分解析に基づくアプローチであるD2Aを提案する。
D2Aを使用して大きなラベル付きデータセットを生成し、脆弱性識別のためのモデルをトレーニングします。
論文 参考訳(メタデータ) (2021-02-16T07:46:53Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z) - The Curse of Performance Instability in Analysis Datasets: Consequences,
Source, and Suggestions [93.62888099134028]
自然言語推論(NLI)および読み込み(RC)解析/ストレスセットにおける最先端モデルの性能は極めて不安定であることがわかった。
このことは、(1)不安定さがこれらの分析セットに基づいて引き出された結論の信頼性にどのように影響するかという3つの疑問を提起する。
不安定の原因に関する理論的説明と実証的証拠の両方を提示する。
論文 参考訳(メタデータ) (2020-04-28T15:41:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。