論文の概要: Machine Learning for Actionable Warning Identification: A Comprehensive Survey
- arxiv url: http://arxiv.org/abs/2312.00324v2
- Date: Sun, 06 Oct 2024 08:27:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-08 13:41:18.964028
- Title: Machine Learning for Actionable Warning Identification: A Comprehensive Survey
- Title(参考訳): 行動警告識別のための機械学習: 包括的調査
- Authors: Xiuting Ge, Chunrong Fang, Xuanye Li, Weisong Sun, Daoyuan Wu, Juan Zhai, Shangwei Lin, Zhihong Zhao, Yang Liu, Zhenyu Chen,
- Abstract要約: Actionable Warning Identification (AWI)は、静的コードアナライザのユーザビリティ向上に重要な役割を果たす。
機械学習(ML)の最近の進歩は、機械学習技術をAWIに組み込むために提案されている。
本稿では、最先端のMLベースのAWIアプローチを体系的にレビューする。
- 参考スコア(独自算出の注目度): 19.18364564227752
- License:
- Abstract: Actionable Warning Identification (AWI) plays a crucial role in improving the usability of static code analyzers. With recent advances in Machine Learning (ML), various approaches have been proposed to incorporate ML techniques into AWI. These ML-based AWI approaches, benefiting from ML's strong ability to learn subtle and previously unseen patterns from historical data, have demonstrated superior performance. However, a comprehensive overview of these approaches is missing, which could hinder researchers/practitioners from understanding the current process and discovering potential for future improvement in the ML-based AWI community. In this paper, we systematically review the state-of-the-art ML-based AWI approaches. First, we employ a meticulous survey methodology and gather 51 primary studies from 2000/01/01 to 2023/09/01. Then, we outline the typical ML-based AWI workflow, including warning dataset preparation, preprocessing, AWI model construction, and evaluation stages. In such a workflow, we categorize ML-based AWI approaches based on the warning output format. Besides, we analyze the techniques used in each stage, along with their strengths, weaknesses, and distribution. Finally, we provide practical research directions for future ML-based AWI approaches, focusing on aspects like data improvement (e.g., enhancing the warning labeling strategy) and model exploration (e.g., exploring large language models for AWI).
- Abstract(参考訳): Actionable Warning Identification (AWI)は、静的コードアナライザのユーザビリティ向上に重要な役割を果たす。
近年の機械学習(ML)の進歩により、ML技術をAWIに組み込むための様々なアプローチが提案されている。
これらのMLベースのAWIアプローチは、歴史的データから微妙で以前は見えなかったパターンを学習するMLの強い能力の恩恵を受け、優れたパフォーマンスを示している。
しかし、これらのアプローチの包括的な概要が欠落しており、研究者や専門家が現在のプロセスを理解し、MLベースのAWIコミュニティの将来的な改善の可能性を発見するのを妨げる可能性がある。
本稿では、最先端のMLベースのAWIアプローチを体系的にレビューする。
まず,2000/01/01から2023/09/01までの51の初等研究を精巧な調査手法を用いて収集する。
次に、警告データセット作成、前処理、AWIモデル構築、評価ステージを含む、MLベースの典型的なAWIワークフローの概要を示す。
このようなワークフローでは、警告出力形式に基づいてMLベースのAWIアプローチを分類する。
さらに,各段階で使用する技術と,その強度,弱点,分布を分析した。
最後に、データ改善(例えば、警告ラベリング戦略の強化)やモデル探索(例えば、AWIの大規模言語モデル探索)といった側面に焦点を当てた、将来のMLベースのAWIアプローチのための実用的な研究方向を提供する。
関連論文リスト
- Machine Learning for Missing Value Imputation [0.0]
本論文の主な目的は、ミス・バリュー・インプットにおける最先端の機械学習アプリケーションの解析と同様に、包括的で厳密なレビューを行うことである。
2014年から2023年にかけて発行された100以上の記事が、その方法や発見を考慮して批判的にレビューされている。
最新の文献は,MVI法の動向とその評価を精査するために検討されている。
論文 参考訳(メタデータ) (2024-10-10T18:56:49Z) - Detecting Training Data of Large Language Models via Expectation Maximization [62.28028046993391]
メンバーシップ推論攻撃(MIA)は、特定のインスタンスがターゲットモデルのトレーニングデータの一部であるかどうかを判断することを目的としている。
大規模言語モデル(LLM)にMIAを適用することは、事前学習データの大規模化と、会員シップのあいまいさによって、ユニークな課題をもたらす。
EM-MIAは,予測最大化アルゴリズムを用いて,メンバーシップスコアとプレフィックススコアを反復的に洗練するLLMの新しいMIA手法である。
論文 参考訳(メタデータ) (2024-10-10T03:31:16Z) - Task-Agnostic Machine-Learning-Assisted Inference [0.0]
タスクに依存しないML支援推論のためのPSPSという新しい統計フレームワークを提案する。
PSPSは、ほぼすべての確立したデータ分析ルーチンに簡単にプラグインできる予測後推論ソリューションを提供する。
論文 参考訳(メタデータ) (2024-05-30T13:19:49Z) - Pre-trained Model-based Actionable Warning Identification: A Feasibility
Study [21.231852710115863]
Actionable Warning Identification (AWI)は、静的コードアナライザのユーザビリティ向上に重要な役割を果たす。
現在、ラベル付き警告からAWI分類器を主に学習する機械学習(ML)ベースのAWIアプローチが特に一般的である。
本稿では,様々な事前学習モデル(PTM)をAWIに適用する可能性について検討する。
論文 参考訳(メタデータ) (2024-03-05T07:15:07Z) - LLM Inference Unveiled: Survey and Roofline Model Insights [62.92811060490876]
大規模言語モデル(LLM)推論は急速に進化しており、機会と課題のユニークなブレンドを提示している。
本調査は, 研究状況を要約するだけでなく, 屋上モデルに基づく枠組みを導入することによって, 従来の文献レビューから際立っている。
このフレームワークは、ハードウェアデバイスにLSMをデプロイする際のボトルネックを特定し、実用上の問題を明確に理解する。
論文 参考訳(メタデータ) (2024-02-26T07:33:05Z) - C-ICL: Contrastive In-context Learning for Information Extraction [54.39470114243744]
c-ICLは、正しいサンプル構築と間違ったサンプル構築の両方を活用して、コンテキスト内学習のデモを作成する、新しい数ショット技術である。
各種データセットに対する実験により,c-ICLは従来の数発のインコンテキスト学習法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-02-17T11:28:08Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z) - Practical Machine Learning Safety: A Survey and Primer [81.73857913779534]
自動運転車のような安全クリティカルなアプリケーションにおける機械学習アルゴリズムのオープンワールド展開は、さまざまなML脆弱性に対処する必要がある。
一般化エラーを低減し、ドメイン適応を実現し、外乱例や敵攻撃を検出するための新しいモデルと訓練技術。
我々の組織は、MLアルゴリズムの信頼性を異なる側面から向上するために、最先端のML技術を安全戦略にマッピングする。
論文 参考訳(メタデータ) (2021-06-09T05:56:42Z) - A Survey on Large-scale Machine Learning [67.6997613600942]
機械学習はデータに対する深い洞察を与え、マシンが高品質な予測を行うことを可能にする。
ほとんどの高度な機械学習アプローチは、大規模なデータを扱う場合の膨大な時間コストに悩まされる。
大規模機械学習は、ビッグデータからパターンを、同等のパフォーマンスで効率的に学習することを目的としている。
論文 参考訳(メタデータ) (2020-08-10T06:07:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。