論文の概要: A Data-Mining Based Study of Security Vulnerability Types and Their Mitigation in Different Languages
- arxiv url: http://arxiv.org/abs/2405.08025v1
- Date: Sun, 12 May 2024 08:38:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-15 18:03:09.905081
- Title: A Data-Mining Based Study of Security Vulnerability Types and Their Mitigation in Different Languages
- Title(参考訳): データマイニングによる異なる言語におけるセキュリティ脆弱性タイプとその軽減に関する研究
- Authors: Gábor Antal, Balázs Mosolygó, Norbert Vándor, Péter Hegedüs,
- Abstract要約: この研究は、セキュリティ問題と修正の観点から、最も広く使われているプログラミング言語に共通するパターンがあるかどうかを調べることを目的としている。
私たちは、同じセキュリティ問題が異なる言語で異なるように見え、提供されたソリューションも同じように異なるかもしれないことに気付きました。
また、同じサイズのプロジェクトでも非常に異なる結果が得られ、同じタスクに対してソリューションを提供しても共通の弱点が生まれることもわかりました。
- 参考スコア(独自算出の注目度): 0.874967598360817
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The number of people accessing online services is increasing day by day, and with new users, comes a greater need for effective and responsive cyber-security. Our goal in this study was to find out if there are common patterns within the most widely used programming languages in terms of security issues and fixes. In this paper, we showcase some statistics based on the data we extracted for these languages. Analyzing the more popular ones, we found that the same security issues might appear differently in different languages, and as such the provided solutions may vary just as much. We also found that projects with similar sizes can produce extremely different results, and have different common weaknesses, even if they provide a solution to the same task. These statistics may not be entirely indicative of the projects' standards when it comes to security, but they provide a good reference point of what one should expect. Given a larger sample size they could be made even more precise, and as such a better understanding of the security relevant activities within the projects written in given languages could be achieved.
- Abstract(参考訳): オンラインサービスにアクセスする人の数は日々増えており、新しいユーザーとともに、効果的でレスポンシブなサイバーセキュリティの必要性が高まっている。
本研究の目的は,セキュリティ問題や修正点の観点から,最も広く使用されているプログラミング言語に共通するパターンが存在するかどうかを確かめることであった。
本稿では,これらの言語から抽出したデータに基づいて,いくつかの統計値を示す。
より人気のあるものを分析すると、同じセキュリティ問題が異なる言語で異なるように見え、提供されたソリューションも同じように異なる可能性があることが分かりました。
また、同じサイズのプロジェクトでも、非常に異なる結果が得られ、同じタスクに対してソリューションを提供しても、共通の弱点が生まれることもわかりました。
これらの統計は、セキュリティに関してプロジェクトの標準を完全に示すものではないかもしれないが、期待すべきことのよい参照ポイントを提供する。
サンプルのサイズが大きくなると、さらに正確になり、与えられた言語で書かれたプロジェクト内のセキュリティ関連アクティビティをより深く理解することが可能になる。
関連論文リスト
- Vulnerability Detection in Popular Programming Languages with Language Models [2.048226951354646]
本稿では,JavaScript,Java,Python,PHP,Goの脆弱性検出における言語モデル(LM)の有効性について検討する。
C/C++と比較して、JavaScriptは最高のパフォーマンスを示し、より優れた、より実用的な検出能力を持っています。
論文 参考訳(メタデータ) (2024-12-20T13:57:27Z) - LLMs Lost in Translation: M-ALERT uncovers Cross-Linguistic Safety Gaps [63.10843814055688]
M-ALERTは、英語、フランス語、ドイツ語、イタリア語、スペイン語の5言語で大言語モデルの安全性を評価するベンチマークである。
M-ALERTは、ALERTの詳細な分類に従って、言語ごとの高品質なプロンプトが15kあり、合計で75kである。
論文 参考訳(メタデータ) (2024-12-19T16:46:54Z) - MVD: A Multi-Lingual Software Vulnerability Detection Framework [1.0771072841012608]
MVD - 革新的な多言語脆弱性検出フレームワークを紹介する。
このフレームワークは、様々な言語の脆弱性データから同時に学習することで、複数の言語にまたがる脆弱性を検出する能力を得る。
本フレームワークは,多言語脆弱性検出における最先端手法を,PR-AUCの83.7%から193.6%で大幅に上回っている。
論文 参考訳(メタデータ) (2024-12-09T02:58:10Z) - Large Language Models for Secure Code Assessment: A Multi-Language Empirical Study [1.9116784879310031]
GPT-4oは,数ショット設定を用いて,最も高い脆弱性検出とCWE分類のスコアを達成できることを示す。
我々は、VSCodeと統合されたCODEGUARDIANと呼ばれるライブラリを開発し、開発者はLLM支援リアルタイム脆弱性分析を行うことができる。
論文 参考訳(メタデータ) (2024-08-12T18:10:11Z) - Security and Privacy Challenges of Large Language Models: A Survey [2.6986500640871482]
LLM(Large Language Models)は、テキストの生成や要約、言語翻訳、質問応答など、非常に優れた機能を示し、複数の分野に貢献している。
これらのモデルは、Jailbreak攻撃、データ中毒攻撃、Personally Identible Information(PII)漏洩攻撃など、セキュリティやプライバシ攻撃にも脆弱である。
この調査では、トレーニングデータとユーザの両方に対するLLMのセキュリティとプライバシの課題と、輸送、教育、医療といったさまざまな領域におけるアプリケーションベースのリスクについて、徹底的にレビューする。
論文 参考訳(メタデータ) (2024-01-30T04:00:54Z) - All Languages Matter: On the Multilingual Safety of Large Language Models [96.47607891042523]
我々は、大規模言語モデル(LLM)のための最初の多言語安全ベンチマークを構築した。
XSafetyは、複数の言語ファミリーにまたがる10言語にわたる14種類の一般的な安全問題をカバーしている。
本稿では,ChatGPTの多言語安全性向上のための簡易かつ効果的なプロンプト手法を提案する。
論文 参考訳(メタデータ) (2023-10-02T05:23:34Z) - CodeLMSec Benchmark: Systematically Evaluating and Finding Security
Vulnerabilities in Black-Box Code Language Models [58.27254444280376]
自動コード生成のための大規模言語モデル(LLM)は、いくつかのプログラミングタスクにおいてブレークスルーを達成した。
これらのモデルのトレーニングデータは、通常、インターネット(例えばオープンソースのリポジトリから)から収集され、障害やセキュリティ上の脆弱性を含む可能性がある。
この不衛生なトレーニングデータは、言語モデルにこれらの脆弱性を学習させ、コード生成手順中にそれを伝播させる可能性がある。
論文 参考訳(メタデータ) (2023-02-08T11:54:07Z) - A New Generation of Perspective API: Efficient Multilingual
Character-level Transformers [66.9176610388952]
Google JigsawのAspective APIの次期バージョンの基礎を提示する。
このアプローチの中心は、単一の多言語トークンフリーなCharformerモデルである。
静的な語彙を強制することで、さまざまな設定で柔軟性が得られます。
論文 参考訳(メタデータ) (2022-02-22T20:55:31Z) - Adversarial GLUE: A Multi-Task Benchmark for Robustness Evaluation of
Language Models [86.02610674750345]
AdvGLUE(Adversarial GLUE)は、様々な種類の敵攻撃の下で、現代の大規模言語モデルの脆弱性を調査し評価するための新しいマルチタスクベンチマークである。
GLUEタスクに14の逆攻撃手法を適用してAdvGLUEを構築する。
テストしたすべての言語モデルとロバストなトレーニングメソッドは、AdvGLUEではパフォーマンスが悪く、スコアは明確な精度よりもはるかに遅れています。
論文 参考訳(メタデータ) (2021-11-04T12:59:55Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。