論文の概要: VLAI: A RoBERTa-Based Model for Automated Vulnerability Severity Classification
- arxiv url: http://arxiv.org/abs/2507.03607v1
- Date: Fri, 04 Jul 2025 14:28:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.800004
- Title: VLAI: A RoBERTa-Based Model for Automated Vulnerability Severity Classification
- Title(参考訳): VLAI: 自動脆弱性度分類のためのRoBERTaベースモデル
- Authors: Cédric Bonhomme, Alexandre Dulaunoy,
- Abstract要約: RoBERTa上に構築されたVLAIは、60万以上の現実世界の脆弱性に微調整されている。
モデルとデータセットはオープンソースで、Vulnerability-Lookupサービスに統合されている。
- 参考スコア(独自算出の注目度): 49.1574468325115
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents VLAI, a transformer-based model that predicts software vulnerability severity levels directly from text descriptions. Built on RoBERTa, VLAI is fine-tuned on over 600,000 real-world vulnerabilities and achieves over 82% accuracy in predicting severity categories, enabling faster and more consistent triage ahead of manual CVSS scoring. The model and dataset are open-source and integrated into the Vulnerability-Lookup service.
- Abstract(参考訳): 本稿では,テキスト記述から直接ソフトウェア脆弱性の重大度を予測するトランスフォーマーモデルであるVLAIを提案する。
RoBERTa上に構築されたVLAIは、60,000以上の現実世界の脆弱性を微調整し、重度カテゴリを予測する精度を82%以上達成し、手動CVSSスコアよりも高速で一貫性のあるトリアージを可能にする。
モデルとデータセットはオープンソースで、Vulnerability-Lookupサービスに統合されている。
関連論文リスト
- No Query, No Access [50.18709429731724]
被害者のテキストのみを使用して動作する textbfVictim Data-based Adrial Attack (VDBA) を導入する。
被害者モデルへのアクセスを防止するため、公開されている事前トレーニングモデルとクラスタリングメソッドを備えたシャドウデータセットを作成します。
EmotionとSST5データセットの実験によると、VDBAは最先端の手法より優れており、ASRの改善は52.08%である。
論文 参考訳(メタデータ) (2025-05-12T06:19:59Z) - Advancing Vulnerability Classification with BERT: A Multi-Objective Learning Model [0.0]
本稿では,BERT(Bi Representations from Transformers)モデルを用いて複数ラベル分類を行う新しい脆弱性レポートを提案する。
システムはREST APIとStreamlit UIを介してデプロイされ、リアルタイムの脆弱性分析を可能にする。
論文 参考訳(メタデータ) (2025-03-26T06:04:45Z) - CleanVul: Automatic Function-Level Vulnerability Detection in Code Commits Using LLM Heuristics [12.053158610054911]
本稿では,Large Language Model (LLM) を用いて,VFCからの脆弱性修正変更を自動的に識別する手法を提案する。
VulSifterは大規模な研究に適用され、GitHubで127,063のリポジトリをクロールした。
次に,8,203個の関数からなる高品質なデータセットであるCleanVulを開発した。
論文 参考訳(メタデータ) (2024-11-26T09:51:55Z) - Data-Free Hard-Label Robustness Stealing Attack [67.41281050467889]
本稿では,Data-Free Hard-Label Robustness Stealing(DFHL-RS)攻撃について紹介する。
ターゲットモデルのハードラベルをクエリするだけで、モデル精度とロバスト性の両方を盗むことができる。
本手法は,AutoAttackに対して77.86%,頑健な39.51%の精度を実現する。
論文 参考訳(メタデータ) (2023-12-10T16:14:02Z) - Conservative Prediction via Data-Driven Confidence Minimization [70.93946578046003]
機械学習の安全性クリティカルな応用においては、モデルが保守的であることが望ましいことが多い。
本研究では,不確実性データセットに対する信頼性を最小化するデータ駆動信頼性最小化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:05:36Z) - VELVET: a noVel Ensemble Learning approach to automatically locate
VulnErable sTatements [62.93814803258067]
本稿では,ソースコード中の脆弱な文を見つけるための新しいアンサンブル学習手法であるVELVETを提案する。
我々のモデルは、グラフベースとシーケンスベースニューラルネットワークを組み合わせて、プログラムグラフの局所的およびグローバル的コンテキストを捕捉する。
VELVETは、合成データと実世界のデータに対して、それぞれ99.6%と43.6%の精度を達成している。
論文 参考訳(メタデータ) (2021-12-20T22:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。