論文の概要: Causative Insights into Open Source Software Security using Large
Language Code Embeddings and Semantic Vulnerability Graph
- arxiv url: http://arxiv.org/abs/2401.07035v1
- Date: Sat, 13 Jan 2024 10:33:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 20:07:24.749654
- Title: Causative Insights into Open Source Software Security using Large
Language Code Embeddings and Semantic Vulnerability Graph
- Title(参考訳): 大規模言語コード埋め込みとセマンティック脆弱性グラフを用いたオープンソースソフトウェアセキュリティの因果的洞察
- Authors: Nafis Tanveer Islam, Gonzalo De La Torre Parra, Dylan Manual, Murtuza
Jadliwala, Peyman Najafirad
- Abstract要約: オープンソースソフトウェア(OSS)の脆弱性は、不正アクセス、データ漏洩、ネットワーク障害、プライバシー侵害を引き起こす可能性がある。
最近のディープラーニング技術は、ソースコードの脆弱性を特定し、ローカライズする上で大きな可能性を示しています。
本研究は,従来の方法に比べてコード修復能力が24%向上したことを示す。
- 参考スコア(独自算出の注目度): 3.623199159688412
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Open Source Software (OSS) security and resilience are worldwide phenomena
hampering economic and technological innovation. OSS vulnerabilities can cause
unauthorized access, data breaches, network disruptions, and privacy
violations, rendering any benefits worthless. While recent deep-learning
techniques have shown great promise in identifying and localizing
vulnerabilities in source code, it is unclear how effective these research
techniques are from a usability perspective due to a lack of proper
methodological analysis. Usually, these methods offload a developer's task of
classifying and localizing vulnerable code; still, a reasonable study to
measure the actual effectiveness of these systems to the end user has yet to be
conducted. To address the challenge of proper developer training from the prior
methods, we propose a system to link vulnerabilities to their root cause,
thereby intuitively educating the developers to code more securely.
Furthermore, we provide a comprehensive usability study to test the
effectiveness of our system in fixing vulnerabilities and its capability to
assist developers in writing more secure code. We demonstrate the effectiveness
of our system by showing its efficacy in helping developers fix source code
with vulnerabilities. Our study shows a 24% improvement in code repair
capabilities compared to previous methods. We also show that, when trained by
our system, on average, approximately 9% of the developers naturally tend to
write more secure code with fewer vulnerabilities.
- Abstract(参考訳): オープンソースソフトウェア(OSS)のセキュリティとレジリエンスは、世界規模で経済と技術革新を妨げる現象である。
OSSの脆弱性は、不正アクセス、データ漏洩、ネットワークの障害、プライバシ違反を引き起こし、価値のない利益をもたらす可能性がある。
最近のディープラーニング技術は、ソースコードの脆弱性を特定し、ローカライズする上で大きな可能性を秘めているが、適切な方法論分析が欠如していることから、これらの研究手法がユーザビリティの観点からどれほど有効であるかは明らかではない。
通常、これらのメソッドは、脆弱性のあるコードの分類とローカライズという開発者のタスクをオフロードする。
従来の方法からの適切な開発者トレーニングの課題に対処するために,脆弱性を根本原因にリンクするシステムを提案する。
さらに,脆弱性の修正におけるシステムの有効性と,よりセキュアなコードを書くことを支援する機能をテストするための総合的なユーザビリティスタディを提供する。
脆弱性のあるソースコードの修正を支援することで,システムの有効性を実証する。
これまでの方法と比較して,コード修復能力は24%向上している。
また、システムによってトレーニングされた場合、平均して約9%の開発者が、脆弱性が少なくよりセキュアなコードを書く傾向にあることも示しています。
関連論文リスト
- In-Context Experience Replay Facilitates Safety Red-Teaming of Text-to-Image Diffusion Models [97.82118821263825]
テキスト・ツー・イメージ(T2I)モデルは目覚ましい進歩を見せているが、有害なコンテンツを生成する可能性はまだMLコミュニティにとって重要な関心事である。
ICERは,解釈可能かつ意味論的に意味のある重要なプロンプトを生成する新しい赤チームフレームワークである。
我々の研究は、より堅牢な安全メカニズムをT2Iシステムで開発するための重要な洞察を提供する。
論文 参考訳(メタデータ) (2024-11-25T04:17:24Z) - CRepair: CVAE-based Automatic Vulnerability Repair Technology [1.147605955490786]
ソフトウェア脆弱性は、現代のソフトウェアとそのアプリケーションデータの完全性、セキュリティ、信頼性に重大な脅威をもたらす。
脆弱性修復の課題に対処するため、研究者らは、学習に基づく自動脆弱性修復技術が広く注目を集めるなど、様々な解決策を提案している。
本稿では,システムコードのセキュリティ脆弱性を修正することを目的としたCVAEベースの自動脆弱性修復技術であるCRepairを提案する。
論文 参考訳(メタデータ) (2024-11-08T12:55:04Z) - Is Your AI-Generated Code Really Safe? Evaluating Large Language Models on Secure Code Generation with CodeSecEval [20.959848710829878]
大規模言語モデル(LLM)は、コード生成とコード修復に大きな進歩をもたらした。
しかし、GitHubのようなオープンソースのリポジトリから無防備なデータを使用したトレーニングは、セキュリティ上の脆弱性を必然的に伝播するリスクを増大させる。
我々は,コードLLMのセキュリティ面を正確に評価し,拡張することを目的とした総合的研究を提案する。
論文 参考訳(メタデータ) (2024-07-02T16:13:21Z) - FaultGuard: A Generative Approach to Resilient Fault Prediction in Smart Electrical Grids [53.2306792009435]
FaultGuardは、障害タイプとゾーン分類のための最初のフレームワークであり、敵攻撃に耐性がある。
本稿では,ロバスト性を高めるために,低複雑性故障予測モデルとオンライン逆行訓練手法を提案する。
本モデルでは,耐故障予測ベンチマークの最先端を最大0.958の精度で上回っている。
論文 参考訳(メタデータ) (2024-03-26T08:51:23Z) - Profile of Vulnerability Remediations in Dependencies Using Graph
Analysis [40.35284812745255]
本研究では,グラフ解析手法と改良型グラフ注意畳み込みニューラルネットワーク(GAT)モデルを提案する。
制御フローグラフを分析して、脆弱性の修正を目的とした依存性のアップグレードから発生するアプリケーションの変更をプロファイルします。
結果は、コード脆弱性のリレーショナルダイナミクスに関する微妙な洞察を提供する上で、強化されたGATモデルの有効性を示す。
論文 参考訳(メタデータ) (2024-03-08T02:01:47Z) - LLM-Powered Code Vulnerability Repair with Reinforcement Learning and
Semantic Reward [3.729516018513228]
我々は,大規模な言語モデルであるCodeGen2を利用した多目的コード脆弱性解析システム texttSecRepair を導入する。
そこで本研究では,LLMを用いた脆弱性解析に適した命令ベースデータセットを提案する。
GitHub上の6つのオープンソースIoTオペレーティングシステムにおいて、ゼロデイとNデイの脆弱性を特定します。
論文 参考訳(メタデータ) (2024-01-07T02:46:39Z) - Enhancing Large Language Models for Secure Code Generation: A
Dataset-driven Study on Vulnerability Mitigation [24.668682498171776]
大規模言語モデル(LLM)はコード生成に大きな進歩をもたらし、初心者と経験豊富な開発者の両方に恩恵を与えている。
しかし、GitHubのようなオープンソースのリポジトリから無防備なデータを使用したトレーニングは、セキュリティ上の脆弱性を不注意に伝播するリスクをもたらす。
本稿では,ソフトウェアセキュリティの観点からのLLMの評価と拡張に焦点をあてた総合的研究について述べる。
論文 参考訳(メタデータ) (2023-10-25T00:32:56Z) - CodeLMSec Benchmark: Systematically Evaluating and Finding Security
Vulnerabilities in Black-Box Code Language Models [58.27254444280376]
自動コード生成のための大規模言語モデル(LLM)は、いくつかのプログラミングタスクにおいてブレークスルーを達成した。
これらのモデルのトレーニングデータは、通常、インターネット(例えばオープンソースのリポジトリから)から収集され、障害やセキュリティ上の脆弱性を含む可能性がある。
この不衛生なトレーニングデータは、言語モデルにこれらの脆弱性を学習させ、コード生成手順中にそれを伝播させる可能性がある。
論文 参考訳(メタデータ) (2023-02-08T11:54:07Z) - Developing Hands-on Labs for Source Code Vulnerability Detection with AI [0.0]
我々は、将来のIT専門家をセキュアなプログラミングの習慣へと導くために、モジュールの学習と実験室への手引きを含むフレームワークを提案する。
このテーマは、ソースコードとログファイル分析ツールを使用して、セキュアなプログラミングプラクティスを学生に紹介するラボで、学習モジュールを設計することを目的としています。
論文 参考訳(メタデータ) (2023-02-01T20:53:58Z) - VELVET: a noVel Ensemble Learning approach to automatically locate
VulnErable sTatements [62.93814803258067]
本稿では,ソースコード中の脆弱な文を見つけるための新しいアンサンブル学習手法であるVELVETを提案する。
我々のモデルは、グラフベースとシーケンスベースニューラルネットワークを組み合わせて、プログラムグラフの局所的およびグローバル的コンテキストを捕捉する。
VELVETは、合成データと実世界のデータに対して、それぞれ99.6%と43.6%の精度を達成している。
論文 参考訳(メタデータ) (2021-12-20T22:45:27Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。