論文の概要: Pre-trained Model-based Actionable Warning Identification: A Feasibility
Study
- arxiv url: http://arxiv.org/abs/2403.02716v1
- Date: Tue, 5 Mar 2024 07:15:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 15:49:09.953989
- Title: Pre-trained Model-based Actionable Warning Identification: A Feasibility
Study
- Title(参考訳): 事前学習モデルに基づく行動警告識別の可能性
- Authors: Xiuting Ge and Chunrong Fang and Quanjun Zhang and Daoyuan Wu and
Bowen Yu and Qirui Zheng and An Guo and Shangwei Lin and Zhihong Zhao and
Yang Liu and Zhenyu Chen
- Abstract要約: Actionable Warning Identification (AWI)は、静的コードアナライザのユーザビリティ向上に重要な役割を果たす。
現在、ラベル付き警告からAWI分類器を主に学習する機械学習(ML)ベースのAWIアプローチが特に一般的である。
本稿では,様々な事前学習モデル(PTM)をAWIに適用する可能性について検討する。
- 参考スコア(独自算出の注目度): 21.231852710115863
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Actionable Warning Identification (AWI) plays a pivotal role in improving the
usability of static code analyzers. Currently, Machine Learning (ML)-based AWI
approaches, which mainly learn an AWI classifier from labeled warnings, are
notably common. However, these approaches still face the problem of restricted
performance due to the direct reliance on a limited number of labeled warnings
to develop a classifier. Very recently, Pre-Trained Models (PTMs), which have
been trained through billions of text/code tokens and demonstrated substantial
success applications on various code-related tasks, could potentially
circumvent the above problem. Nevertheless, the performance of PTMs on AWI has
not been systematically investigated, leaving a gap in understanding their pros
and cons. In this paper, we are the first to explore the feasibility of
applying various PTMs for AWI. By conducting the extensive evaluation on 10K+
SpotBugs warnings from 10 large-scale and open-source projects, we observe that
all studied PTMs are consistently 9.85%~21.12% better than the state-of-the-art
ML-based AWI approaches. Besides, we investigate the impact of three primary
aspects (i.e., data preprocessing, model training, and model prediction) in the
typical PTM-based AWI workflow. Further, we identify the reasons for current
PTMs' underperformance on AWI. Based on our findings, we provide several
practical guidelines to enhance PTM-based AWI in future work.
- Abstract(参考訳): Actionable Warning Identification (AWI)は、静的コードアナライザのユーザビリティ向上に重要な役割を果たす。
現在、ラベル付き警告からAWI分類器を主に学習する機械学習(ML)ベースのAWIアプローチが特に一般的である。
しかし、これらのアプローチは、分類器を開発するためのラベル付き警告の数が限られているため、性能が制限される問題に直面している。
最近では、何十億ものテキスト/コードトークンを通じてトレーニングされ、様々なコード関連のタスクでかなりの成功を収めたPTM(Pre-Trained Models)が、上記の問題を回避する可能性がある。
それにもかかわらず、AWI上でのPTMの性能は体系的に研究されておらず、それらの長所と短所を理解するのにギャップが残されている。
本稿では,AWI に様々な PTM を適用する可能性について検討する。
10の大規模およびオープンソースプロジェクトから10K以上のSpotBugs警告を広範囲に評価することにより、調査対象のPTMは、最先端のMLベースのAWIアプローチよりも、一貫して9.85%〜21.12%向上していることがわかった。
さらに、典型的なptmベースのawiワークフローにおける3つの主要な側面(データ前処理、モデルトレーニング、モデル予測)の影響を調べる。
さらに,現在のPTMのAWIにおける性能低下の原因を明らかにする。
本研究は,今後,PTMベースのAWIを強化するための実践的ガイドラインを提供する。
関連論文リスト
- Continual Learning with Pre-Trained Models: A Survey [61.97613090666247]
継続的な学習は、新しい知識を学ぶ際に、かつての知識の破滅的な忘れを克服することを目的としている。
本稿では, PTM を用いた CL の最近の進歩を包括的に調査する。
論文 参考訳(メタデータ) (2024-01-29T18:27:52Z) - Machine Learning for Actionable Warning Identification: A Comprehensive Survey [19.18364564227752]
Actionable Warning Identification (AWI)は、静的コードアナライザのユーザビリティ向上に重要な役割を果たす。
機械学習(ML)の最近の進歩は、機械学習技術をAWIに組み込むために提案されている。
本稿では、最先端のMLベースのAWIアプローチを体系的にレビューする。
論文 参考訳(メタデータ) (2023-12-01T03:38:21Z) - Understanding and Mitigating the Label Noise in Pre-training on
Downstream Tasks [91.15120211190519]
本稿では、事前学習データセットにおけるノイズの性質を理解し、下流タスクへの影響を軽減することを目的とする。
雑音の悪影響を軽減するために特徴空間に適応する軽量ブラックボックスチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2023-09-29T06:18:15Z) - A Study on Differentiable Logic and LLMs for EPIC-KITCHENS-100
Unsupervised Domain Adaptation Challenge for Action Recognition 2023 [23.323548254515494]
本研究では,EPIC-KITCHENS-100 Unsupervised Domain Adaptation task for Action Recognitionについて検討した。
本研究は,動詞と名詞の共起関係を生かした学習における相異なる論理損失の革新的応用に焦点を当てた。
我々の最終提出(NS-LLM')は、トップ1アクション認識の精度で第1位を獲得しました。
論文 参考訳(メタデータ) (2023-07-13T05:54:05Z) - Cross-Modal Fine-Tuning: Align then Refine [83.37294254884446]
ORCAはクロスモーダルな微調整フレームワークであり、単一の大規模事前訓練モデルの適用範囲を様々に拡張する。
ORCAは12のモダリティから60以上のデータセットを含む3つのベンチマークで最先端の結果を得る。
論文 参考訳(メタデータ) (2023-02-11T16:32:28Z) - A Survey on Programmatic Weak Supervision [74.13976343129966]
本稿では、PWS学習パラダイムの簡単な紹介と、各PWS学習ワークフローに対する代表的アプローチのレビューを行う。
この分野の今後の方向性に刺激を与えるために、この分野でまだ探索されていないいくつかの重要な課題を特定します。
論文 参考訳(メタデータ) (2022-02-11T04:05:38Z) - Pre-Trained Models: Past, Present and Future [126.21572378910746]
大規模事前訓練モデル(PTM)は近年大きな成功を収め、人工知能(AI)分野におけるマイルストーンとなった。
知識を巨大なパラメータに格納し、特定のタスクを微調整することで、巨大なパラメータに暗黙的にエンコードされた豊富な知識は、さまざまな下流タスクの恩恵を受けることができる。
AIコミュニティが、モデルをスクラッチから学習するのではなく、下流タスクのバックボーンとしてPTMを採用することは、今、コンセンサスになっている。
論文 参考訳(メタデータ) (2021-06-14T02:40:32Z) - Foreseeing the Benefits of Incidental Supervision [83.08441990812636]
本稿では,実験を行なわずに,特定の目標タスクに対して,様々な種類の偶発信号の利点を定量化できるかどうかを考察する。
本稿では,PABI(PAC-Bayesian motivated informativeness measure)を提案する。
論文 参考訳(メタデータ) (2020-06-09T20:59:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。