論文の概要: A Data-Mining Based Study of Security Vulnerability Types and Their Mitigation in Different Languages
- arxiv url: http://arxiv.org/abs/2405.08025v1
- Date: Sun, 12 May 2024 08:38:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-15 18:03:09.905081
- Title: A Data-Mining Based Study of Security Vulnerability Types and Their Mitigation in Different Languages
- Title(参考訳): データマイニングによる異なる言語におけるセキュリティ脆弱性タイプとその軽減に関する研究
- Authors: Gábor Antal, Balázs Mosolygó, Norbert Vándor, Péter Hegedüs,
- Abstract要約: この研究は、セキュリティ問題と修正の観点から、最も広く使われているプログラミング言語に共通するパターンがあるかどうかを調べることを目的としている。
私たちは、同じセキュリティ問題が異なる言語で異なるように見え、提供されたソリューションも同じように異なるかもしれないことに気付きました。
また、同じサイズのプロジェクトでも非常に異なる結果が得られ、同じタスクに対してソリューションを提供しても共通の弱点が生まれることもわかりました。
- 参考スコア(独自算出の注目度): 0.874967598360817
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The number of people accessing online services is increasing day by day, and with new users, comes a greater need for effective and responsive cyber-security. Our goal in this study was to find out if there are common patterns within the most widely used programming languages in terms of security issues and fixes. In this paper, we showcase some statistics based on the data we extracted for these languages. Analyzing the more popular ones, we found that the same security issues might appear differently in different languages, and as such the provided solutions may vary just as much. We also found that projects with similar sizes can produce extremely different results, and have different common weaknesses, even if they provide a solution to the same task. These statistics may not be entirely indicative of the projects' standards when it comes to security, but they provide a good reference point of what one should expect. Given a larger sample size they could be made even more precise, and as such a better understanding of the security relevant activities within the projects written in given languages could be achieved.
- Abstract(参考訳): オンラインサービスにアクセスする人の数は日々増えており、新しいユーザーとともに、効果的でレスポンシブなサイバーセキュリティの必要性が高まっている。
本研究の目的は,セキュリティ問題や修正点の観点から,最も広く使用されているプログラミング言語に共通するパターンが存在するかどうかを確かめることであった。
本稿では,これらの言語から抽出したデータに基づいて,いくつかの統計値を示す。
より人気のあるものを分析すると、同じセキュリティ問題が異なる言語で異なるように見え、提供されたソリューションも同じように異なる可能性があることが分かりました。
また、同じサイズのプロジェクトでも、非常に異なる結果が得られ、同じタスクに対してソリューションを提供しても、共通の弱点が生まれることもわかりました。
これらの統計は、セキュリティに関してプロジェクトの標準を完全に示すものではないかもしれないが、期待すべきことのよい参照ポイントを提供する。
サンプルのサイズが大きくなると、さらに正確になり、与えられた言語で書かれたプロジェクト内のセキュリティ関連アクティビティをより深く理解することが可能になる。
関連論文リスト
- Mix Data or Merge Models? Optimizing for Diverse Multi-Task Learning [13.99794032197004]
大きな言語モデル(LLM)は、様々なアプリケーションのために世界中で採用され、デプロイされている。
我々は,多言語コンテキストにおける安全性と汎用タスクを組み合わせた多タスク環境におけるモデルマージについて検討する。
客観的なマージはデータ混合よりも有効であり, 全般的な性能と安全性は最大8%, 10%向上した。
論文 参考訳(メタデータ) (2024-10-14T17:58:01Z) - Large Language Models for Secure Code Assessment: A Multi-Language Empirical Study [1.9116784879310031]
GPT-4oは,数ショット設定を用いて,最も高い脆弱性検出とCWE分類のスコアを達成できることを示す。
我々は、VSCodeと統合されたCODEGUARDIANと呼ばれるライブラリを開発し、開発者はLLM支援リアルタイム脆弱性分析を行うことができる。
論文 参考訳(メタデータ) (2024-08-12T18:10:11Z) - Unique Security and Privacy Threats of Large Language Model: A Comprehensive Survey [46.19229410404056]
大規模言語モデル(LLM)は自然言語処理において顕著な進歩を遂げた。
これらのモデルは、強力な言語理解と生成能力を示すために、広大なデータセットでトレーニングされている。
プライバシーとセキュリティの問題は、そのライフサイクルを通じて明らかになっている。
論文 参考訳(メタデータ) (2024-06-12T07:55:32Z) - Security and Privacy Challenges of Large Language Models: A Survey [2.6986500640871482]
LLM(Large Language Models)は、テキストの生成や要約、言語翻訳、質問応答など、非常に優れた機能を示し、複数の分野に貢献している。
これらのモデルは、Jailbreak攻撃、データ中毒攻撃、Personally Identible Information(PII)漏洩攻撃など、セキュリティやプライバシ攻撃にも脆弱である。
この調査では、トレーニングデータとユーザの両方に対するLLMのセキュリティとプライバシの課題と、輸送、教育、医療といったさまざまな領域におけるアプリケーションベースのリスクについて、徹底的にレビューする。
論文 参考訳(メタデータ) (2024-01-30T04:00:54Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - All Languages Matter: On the Multilingual Safety of Large Language Models [96.47607891042523]
我々は、大規模言語モデル(LLM)のための最初の多言語安全ベンチマークを構築した。
XSafetyは、複数の言語ファミリーにまたがる10言語にわたる14種類の一般的な安全問題をカバーしている。
本稿では,ChatGPTの多言語安全性向上のための簡易かつ効果的なプロンプト手法を提案する。
論文 参考訳(メタデータ) (2023-10-02T05:23:34Z) - CodeLMSec Benchmark: Systematically Evaluating and Finding Security
Vulnerabilities in Black-Box Code Language Models [58.27254444280376]
自動コード生成のための大規模言語モデル(LLM)は、いくつかのプログラミングタスクにおいてブレークスルーを達成した。
これらのモデルのトレーニングデータは、通常、インターネット(例えばオープンソースのリポジトリから)から収集され、障害やセキュリティ上の脆弱性を含む可能性がある。
この不衛生なトレーニングデータは、言語モデルにこれらの脆弱性を学習させ、コード生成手順中にそれを伝播させる可能性がある。
論文 参考訳(メタデータ) (2023-02-08T11:54:07Z) - A New Generation of Perspective API: Efficient Multilingual
Character-level Transformers [66.9176610388952]
Google JigsawのAspective APIの次期バージョンの基礎を提示する。
このアプローチの中心は、単一の多言語トークンフリーなCharformerモデルである。
静的な語彙を強制することで、さまざまな設定で柔軟性が得られます。
論文 参考訳(メタデータ) (2022-02-22T20:55:31Z) - Adversarial GLUE: A Multi-Task Benchmark for Robustness Evaluation of
Language Models [86.02610674750345]
AdvGLUE(Adversarial GLUE)は、様々な種類の敵攻撃の下で、現代の大規模言語モデルの脆弱性を調査し評価するための新しいマルチタスクベンチマークである。
GLUEタスクに14の逆攻撃手法を適用してAdvGLUEを構築する。
テストしたすべての言語モデルとロバストなトレーニングメソッドは、AdvGLUEではパフォーマンスが悪く、スコアは明確な精度よりもはるかに遅れています。
論文 参考訳(メタデータ) (2021-11-04T12:59:55Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。