論文の概要: Pre-trained Model-based Automated Software Vulnerability Repair: How Far
are We?
- arxiv url: http://arxiv.org/abs/2308.12533v2
- Date: Fri, 25 Aug 2023 01:34:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 12:56:33.629716
- Title: Pre-trained Model-based Automated Software Vulnerability Repair: How Far
are We?
- Title(参考訳): 事前トレーニングされたモデルベースの自動ソフトウェア脆弱性修復: どこまであるのか?
- Authors: Quanjun Zhang, Chunrong Fang, Bowen Yu, Weisong Sun, Tongke Zhang,
Zhenyu Chen
- Abstract要約: プレトレーニングモデルの予測精度は32.94%44.96%で、最先端技術であるVRepairを一貫して上回っていることを示す。
驚くべきことに、転送学習を採用する単純なアプローチは、事前訓練されたモデルの予測精度を平均9.40%向上させる。
我々の研究は、現実世界の脆弱性にパッチを当てるためにトレーニング済みのモデルを採用するという将来性を強調している。
- 参考スコア(独自算出の注目度): 14.741742268621403
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Various approaches are proposed to help under-resourced security researchers
to detect and analyze software vulnerabilities. It is still incredibly
time-consuming and labor-intensive for security researchers to fix
vulnerabilities. The time lag between reporting and fixing a vulnerability
causes software systems to suffer from significant exposure to possible
attacks. Recently, some techniques have proposed applying pre-trained models to
fix security vulnerabilities and have proved their success in improving repair
accuracy. However, the effectiveness of existing pre-trained models has not
been systematically analyzed, and little is known about their advantages and
disadvantages.
To bridge this gap, we perform the first extensive study on applying various
pre-trained models to vulnerability repair. The results show that studied
pre-trained models consistently outperform the state-of-the-art technique
VRepair with a prediction accuracy of 32.94%~44.96%. We also investigate the
impact of major phases in the vulnerability repair workflow. Surprisingly, a
simplistic approach adopting transfer learning improves the prediction accuracy
of pre-trained models by 9.40% on average. Besides, we provide additional
discussion to illustrate the capacity and limitations of pre-trained models.
Finally, we further pinpoint various practical guidelines for advancing
pre-trained model-based vulnerability repair. Our study highlights the
promising future of adopting pre-trained models to patch real-world
vulnerabilities.
- Abstract(参考訳): セキュリティ研究者がソフトウェアの脆弱性を検知し、分析するために、さまざまなアプローチが提案されている。
セキュリティ研究者が脆弱性を修正するには、信じられないほど時間と労力がかかります。
脆弱性の報告と修正の間のタイムラグにより、ソフトウェアシステムは、考えられる攻撃への重大な露出に苦しむことになる。
近年,セキュリティ脆弱性の修正に事前学習モデルを適用する手法が提案され,修理精度の向上に成功している。
しかし、既存の事前学習モデルの有効性は体系的に分析されておらず、その利点や欠点についてはほとんど知られていない。
このギャップを埋めるため,脆弱性修復にさまざまな事前学習モデルを適用するための,最初の詳細な調査を行った。
その結果、事前訓練されたモデルの研究は、予測精度32.94%〜44.96%の最先端技術であるVRepairを一貫して上回った。
また、脆弱性修復ワークフローにおける大きなフェーズの影響についても検討する。
驚くべきことに、転送学習を採用する単純なアプローチは、事前訓練されたモデルの予測精度を平均9.40%向上させる。
さらに、事前訓練されたモデルの能力と限界を説明するための追加の議論を行う。
最後に、事前訓練されたモデルベースの脆弱性修復を進めるための様々な実践的ガイドラインを見極める。
本研究は,実世界の脆弱性にパッチを当てるために事前訓練されたモデルを採用するという将来性を強調している。
関連論文リスト
- Robustness-Congruent Adversarial Training for Secure Machine Learning
Model Updates [13.911586916369108]
機械学習モデルにおける誤分類は、敵の例に対して堅牢性に影響を及ぼす可能性があることを示す。
この問題に対処するために,ロバストネス・コングロレント・逆行訓練という手法を提案する。
我々のアルゴリズムと、より一般的には、非回帰的制約で学習することは、一貫した推定器を訓練するための理論的に基底的なフレームワークを提供することを示す。
論文 参考訳(メタデータ) (2024-02-27T10:37:13Z) - Estimating Fr\'echet bounds for validating programmatic weak supervision [50.13475056199486]
我々は、ある変数が連続的に評価される(おそらく高次元の)分布クラス上のFr'echeの境界を推定する手法を開発する。
プログラム弱監督(PWS)を訓練した機械学習(ML)モデルの性能を評価することで,アルゴリズムの有用性を実証する。
論文 参考訳(メタデータ) (2023-12-07T07:15:11Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Towards Certified Probabilistic Robustness with High Accuracy [3.957941698534126]
Adrialの例は、ニューラルネットワーク上に構築された多くのクリティカルシステムに対して、セキュリティ上の脅威となる。
確実に堅牢で正確なニューラルネットワークモデルを構築する方法はまだオープンな問題だ。
本稿では,高い精度と高い確率ロバスト性を実現することを目的とした新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-02T09:39:47Z) - Limits of Machine Learning for Automatic Vulnerability Detection [0.0]
自動脆弱性検出のための機械学習の最近の成果は非常に有望である。
しかし、これらの結果が一般的なものであり、データセットに特有でないことをどうやって知るのか?
トレーニングセットまたはテストセットの増幅中に意味保存変換を適用するクロスバリデーションアルゴリズムを提案する。
改善されたロバスト性は、トレーニングデータ増幅時に使用される特定の変換にのみ適用される。
論文 参考訳(メタデータ) (2023-06-28T08:41:39Z) - Learning to Quantize Vulnerability Patterns and Match to Locate
Statement-Level Vulnerabilities [19.6975205650411]
さまざまな脆弱性パターンを表す量子化されたベクトルで構成される脆弱性コードブックが学習される。
推論の間、コードブックは、すべての学習パターンにマッチし、潜在的な脆弱性の存在を予測するために反復される。
提案手法は188,000以上のC/C++関数からなる実世界のデータセットに対して広範に評価された。
論文 参考訳(メタデータ) (2023-05-26T04:13:31Z) - Re-thinking Data Availablity Attacks Against Deep Neural Networks [53.64624167867274]
本稿では、未学習例の概念を再検討し、既存のロバストな誤り最小化ノイズが不正確な最適化目標であることを示す。
本稿では,計算時間要件の低減による保護性能の向上を図った新しい最適化パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-18T04:03:51Z) - Learning Sample Difficulty from Pre-trained Models for Reliable
Prediction [55.77136037458667]
本稿では,大規模事前学習モデルを用いて,サンプル難易度を考慮したエントロピー正規化による下流モデルトレーニングを指導する。
我々は、挑戦的なベンチマークで精度と不確実性の校正を同時に改善する。
論文 参考訳(メタデータ) (2023-04-20T07:29:23Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - Adversarial Robustness: From Self-Supervised Pre-Training to Fine-Tuning [134.15174177472807]
対戦型トレーニングを自己超越に導入し,汎用的な頑健な事前訓練モデルを初めて提供する。
提案するフレームワークが大きなパフォーマンスマージンを達成できることを示すため,広範な実験を行う。
論文 参考訳(メタデータ) (2020-03-28T18:28:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。