論文の概要: Neural Transfer Learning for Repairing Security Vulnerabilities in C
Code
- arxiv url: http://arxiv.org/abs/2104.08308v1
- Date: Fri, 16 Apr 2021 18:32:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-24 14:18:51.426128
- Title: Neural Transfer Learning for Repairing Security Vulnerabilities in C
Code
- Title(参考訳): Cコードにおけるセキュリティ脆弱性修復のためのニューラルトランスファー学習
- Authors: Zimin Chen, Steve Kommrusch and Martin Monperrus
- Abstract要約: 本稿では,転送学習に基づくVRepairというセキュリティ脆弱性の修復手法を提案する。
VRepairは最初、大規模なバグ修正コーパスでトレーニングされ、次に脆弱性修正データセットにチューニングされる。
私たちの実験では、バグフィックスコーパスでのみトレーニングされたモデルが、すでにいくつかの脆弱性を修正できることを示しました。
- 参考スコア(独自算出の注目度): 14.664825927959644
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we address the problem of automatic repair of software
vulnerabilities with deep learning. The major problem with data-driven
vulnerability repair is that the few existing datasets of known confirmed
vulnerabilities consist of only a few thousand examples. However, training a
deep learning model often requires hundreds of thousands of examples. In this
work, we leverage the intuition that the bug fixing task and the vulnerability
fixing task are related, and the knowledge learned from bug fixes can be
transferred to fixing vulnerabilities. In the machine learning community, this
technique is called transfer learning. In this paper, we propose an approach
for repairing security vulnerabilities named VRepair which is based on transfer
learning. VRepair is first trained on a large bug fix corpus, and is then tuned
on a vulnerability fix dataset, which is an order of magnitudes smaller. In our
experiments, we show that a model trained only on a bug fix corpus can already
fix some vulnerabilities. Then, we demonstrate that transfer learning improves
the ability to repair vulnerable C functions. In the end, we present evidence
that transfer learning produces more stable and superior neural models for
vulnerability repair.
- Abstract(参考訳): 本稿では,ディープラーニングを用いたソフトウェア脆弱性の自動修復の問題に対処する。
データ駆動脆弱性修復の大きな問題は、既知の既知の脆弱性の既存のデータセットが数千の例から成り立っていることだ。
しかし、ディープラーニングモデルのトレーニングには数十万のサンプルが必要になることが多い。
本研究では,バグフィックスタスクと脆弱性修正タスクが関連しているという直感を活用し,バグフィックスから得られた知識を脆弱性修正に移すことができる。
機械学習コミュニティでは、このテクニックは転送学習と呼ばれる。
本稿では,転送学習に基づくVRepairというセキュリティ脆弱性の修復手法を提案する。
VRepairは最初、大規模なバグ修正コーパスでトレーニングされ、次に脆弱性修正データセットにチューニングされる。
私たちの実験では、バグフィックスコーパスでのみトレーニングされたモデルが、すでにいくつかの脆弱性を修正できることを示しました。
次に,トランスファー学習が脆弱なC関数の修復能力を向上させることを示す。
最後に、トランスファーラーニングが脆弱性修復のためにより安定的で優れたニューラルモデルを生み出す証拠を示す。
関連論文リスト
- CRepair: CVAE-based Automatic Vulnerability Repair Technology [1.147605955490786]
ソフトウェア脆弱性は、現代のソフトウェアとそのアプリケーションデータの完全性、セキュリティ、信頼性に重大な脅威をもたらす。
脆弱性修復の課題に対処するため、研究者らは、学習に基づく自動脆弱性修復技術が広く注目を集めるなど、様々な解決策を提案している。
本稿では,システムコードのセキュリティ脆弱性を修正することを目的としたCVAEベースの自動脆弱性修復技術であるCRepairを提案する。
論文 参考訳(メタデータ) (2024-11-08T12:55:04Z) - RESTOR: Knowledge Recovery through Machine Unlearning [71.75834077528305]
Webスケールコーパスでトレーニングされた大規模な言語モデルは、望ましくないデータポイントを記憶することができる。
訓練されたモデルからこれらのデータポイントを「消去」することを目的とした、多くの機械学習手法が提案されている。
以下に示す次元に基づいて,機械学習のためのRESTORフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-31T20:54:35Z) - Code Vulnerability Repair with Large Language Model using Context-Aware Prompt Tuning [5.1071146597039245]
大規模言語モデル(LLM)は、脆弱なコードの検出と修復において重大な課題を示している。
本研究では、GitHub CopilotをLLMとして使用し、バッファオーバーフロー脆弱性に焦点を当てる。
実験の結果,バッファオーバーフローの脆弱性に対処する際のCopilotの能力には,76%の脆弱性検出率と15%の脆弱性修正率の差が認められた。
論文 参考訳(メタデータ) (2024-09-27T02:25:29Z) - Verification of Machine Unlearning is Fragile [48.71651033308842]
両タイプの検証戦略を回避できる2つの新しい非学習プロセスを導入する。
この研究は、機械学習検証の脆弱性と限界を強調し、機械学習の安全性に関するさらなる研究の道を開く。
論文 参考訳(メタデータ) (2024-08-01T21:37:10Z) - Pre-trained Model-based Automated Software Vulnerability Repair: How Far
are We? [14.741742268621403]
プレトレーニングモデルの予測精度は32.94%44.96%で、最先端技術であるVRepairを一貫して上回っていることを示す。
驚くべきことに、転送学習を採用する単純なアプローチは、事前訓練されたモデルの予測精度を平均9.40%向上させる。
我々の研究は、現実世界の脆弱性にパッチを当てるためにトレーニング済みのモデルを採用するという将来性を強調している。
論文 参考訳(メタデータ) (2023-08-24T03:43:10Z) - Enabling Automatic Repair of Source Code Vulnerabilities Using
Data-Driven Methods [0.4568777157687961]
3つの観点から脆弱性修復のためのコード表現を改善する方法を提案する。
データ駆動型の自動プログラム修復モデルは、バグと修正されたコードのペアを使用して、コードのエラーを修正する変換を学習する。
この作業の期待される結果は、自動プログラム修正のためのコード表現の改善、特にセキュリティ脆弱性の修正である。
論文 参考訳(メタデータ) (2022-02-07T10:47:37Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - V2W-BERT: A Framework for Effective Hierarchical Multiclass
Classification of Software Vulnerabilities [7.906207218788341]
本稿では,Transformer-based learning framework(V2W-BERT)を提案する。
自然言語処理,リンク予測,転送学習のアイデアを用いることで,従来の手法よりも優れる。
ランダムに分割されたデータの予測精度は最大97%、一時分割されたデータの予測精度は最大94%です。
論文 参考訳(メタデータ) (2021-02-23T05:16:57Z) - Dataset Security for Machine Learning: Data Poisoning, Backdoor Attacks,
and Defenses [150.64470864162556]
この作業は体系的に分類され、幅広いデータセット脆弱性とエクスプロイトを議論する。
様々な毒とバックドアの脅威モデルとそれらの関係を記述することに加えて,それらの統一分類法を展開する。
論文 参考訳(メタデータ) (2020-12-18T22:38:47Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。