論文の概要: Neural Transfer Learning for Repairing Security Vulnerabilities in C
Code
- arxiv url: http://arxiv.org/abs/2104.08308v1
- Date: Fri, 16 Apr 2021 18:32:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-24 14:18:51.426128
- Title: Neural Transfer Learning for Repairing Security Vulnerabilities in C
Code
- Title(参考訳): Cコードにおけるセキュリティ脆弱性修復のためのニューラルトランスファー学習
- Authors: Zimin Chen, Steve Kommrusch and Martin Monperrus
- Abstract要約: 本稿では,転送学習に基づくVRepairというセキュリティ脆弱性の修復手法を提案する。
VRepairは最初、大規模なバグ修正コーパスでトレーニングされ、次に脆弱性修正データセットにチューニングされる。
私たちの実験では、バグフィックスコーパスでのみトレーニングされたモデルが、すでにいくつかの脆弱性を修正できることを示しました。
- 参考スコア(独自算出の注目度): 14.664825927959644
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we address the problem of automatic repair of software
vulnerabilities with deep learning. The major problem with data-driven
vulnerability repair is that the few existing datasets of known confirmed
vulnerabilities consist of only a few thousand examples. However, training a
deep learning model often requires hundreds of thousands of examples. In this
work, we leverage the intuition that the bug fixing task and the vulnerability
fixing task are related, and the knowledge learned from bug fixes can be
transferred to fixing vulnerabilities. In the machine learning community, this
technique is called transfer learning. In this paper, we propose an approach
for repairing security vulnerabilities named VRepair which is based on transfer
learning. VRepair is first trained on a large bug fix corpus, and is then tuned
on a vulnerability fix dataset, which is an order of magnitudes smaller. In our
experiments, we show that a model trained only on a bug fix corpus can already
fix some vulnerabilities. Then, we demonstrate that transfer learning improves
the ability to repair vulnerable C functions. In the end, we present evidence
that transfer learning produces more stable and superior neural models for
vulnerability repair.
- Abstract(参考訳): 本稿では,ディープラーニングを用いたソフトウェア脆弱性の自動修復の問題に対処する。
データ駆動脆弱性修復の大きな問題は、既知の既知の脆弱性の既存のデータセットが数千の例から成り立っていることだ。
しかし、ディープラーニングモデルのトレーニングには数十万のサンプルが必要になることが多い。
本研究では,バグフィックスタスクと脆弱性修正タスクが関連しているという直感を活用し,バグフィックスから得られた知識を脆弱性修正に移すことができる。
機械学習コミュニティでは、このテクニックは転送学習と呼ばれる。
本稿では,転送学習に基づくVRepairというセキュリティ脆弱性の修復手法を提案する。
VRepairは最初、大規模なバグ修正コーパスでトレーニングされ、次に脆弱性修正データセットにチューニングされる。
私たちの実験では、バグフィックスコーパスでのみトレーニングされたモデルが、すでにいくつかの脆弱性を修正できることを示しました。
次に,トランスファー学習が脆弱なC関数の修復能力を向上させることを示す。
最後に、トランスファーラーニングが脆弱性修復のためにより安定的で優れたニューラルモデルを生み出す証拠を示す。
関連論文リスト
- REEF: A Framework for Collecting Real-World Vulnerabilities and Fixes [40.401211102969356]
本稿では,REal-world vulnErabilities and Fixesをオープンソースリポジトリから収集するための自動収集フレームワークREEFを提案する。
脆弱性とその修正を収集する多言語クローラを開発し、高品質な脆弱性修正ペアをフィルタするためのメトリクスを設計する。
大規模な実験を通じて,我々の手法が高品質な脆弱性修正ペアを収集し,強力な説明を得られることを示す。
論文 参考訳(メタデータ) (2023-09-15T02:50:08Z) - Pre-trained Model-based Automated Software Vulnerability Repair: How Far
are We? [14.741742268621403]
プレトレーニングモデルの予測精度は32.94%44.96%で、最先端技術であるVRepairを一貫して上回っていることを示す。
驚くべきことに、転送学習を採用する単純なアプローチは、事前訓練されたモデルの予測精度を平均9.40%向上させる。
我々の研究は、現実世界の脆弱性にパッチを当てるためにトレーニング済みのモデルを採用するという将来性を強調している。
論文 参考訳(メタデータ) (2023-08-24T03:43:10Z) - Queried Unlabeled Data Improves and Robustifies Class-Incremental
Learning [133.39254981496146]
クラス増分学習(Class-incremental Learning, CIL)は、新たに追加されたクラスを学習することと、以前に学習したクラス知識を保存することの間の悪名高いジレンマに悩まされる。
我々は、連続学習において「自由」な外部ラベル付きデータクエリを活用することを提案する。
CIL-QUDを堅牢化したバージョンにシームレスに拡張する。
論文 参考訳(メタデータ) (2022-06-15T22:53:23Z) - Enabling Automatic Repair of Source Code Vulnerabilities Using
Data-Driven Methods [0.4568777157687961]
3つの観点から脆弱性修復のためのコード表現を改善する方法を提案する。
データ駆動型の自動プログラム修復モデルは、バグと修正されたコードのペアを使用して、コードのエラーを修正する変換を学習する。
この作業の期待される結果は、自動プログラム修正のためのコード表現の改善、特にセキュリティ脆弱性の修正である。
論文 参考訳(メタデータ) (2022-02-07T10:47:37Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - V2W-BERT: A Framework for Effective Hierarchical Multiclass
Classification of Software Vulnerabilities [7.906207218788341]
本稿では,Transformer-based learning framework(V2W-BERT)を提案する。
自然言語処理,リンク予測,転送学習のアイデアを用いることで,従来の手法よりも優れる。
ランダムに分割されたデータの予測精度は最大97%、一時分割されたデータの予測精度は最大94%です。
論文 参考訳(メタデータ) (2021-02-23T05:16:57Z) - Adversarial Targeted Forgetting in Regularization and Generative Based
Continual Learning Models [2.8021833233819486]
継続的(あるいはインクリメンタル)な学習アプローチは、その後のバッチやストリーミングデータから追加の知識やタスクを学ぶ必要がある場合に使用される。
知的敵は、既存の知識を時間とともに保持する連続学習アルゴリズムの能力を活用できることを示す。
敵は、そのタスクのテストインスタンスに慎重に設計されたバックドアサンプルを挿入することで、任意のタスクについて「偽のメモリ」を作成できることを示します。
論文 参考訳(メタデータ) (2021-02-16T18:45:01Z) - Dataset Security for Machine Learning: Data Poisoning, Backdoor Attacks,
and Defenses [150.64470864162556]
この作業は体系的に分類され、幅広いデータセット脆弱性とエクスプロイトを議論する。
様々な毒とバックドアの脅威モデルとそれらの関係を記述することに加えて,それらの統一分類法を展開する。
論文 参考訳(メタデータ) (2020-12-18T22:38:47Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。