論文の概要: An Empirical Study of Vulnerability Handling Times in CPython
- arxiv url: http://arxiv.org/abs/2411.00447v1
- Date: Fri, 01 Nov 2024 08:46:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:50:37.223989
- Title: An Empirical Study of Vulnerability Handling Times in CPython
- Title(参考訳): CPythonにおける脆弱性処理時間に関する実証的研究
- Authors: Jukka Ruohonen,
- Abstract要約: 本稿では,CPythonにおけるソフトウェア脆弱性の処理時間について検討する。
この論文は、Pythonエコシステムのセキュリティをよりよく理解するための最近の取り組みに貢献している。
- 参考スコア(独自算出の注目度): 0.2538209532048867
- License:
- Abstract: The paper examines the handling times of software vulnerabilities in CPython, the reference implementation and interpreter for the today's likely most popular programming language, Python. The background comes from the so-called vulnerability life cycle analysis, the literature on bug fixing times, and the recent research on security of Python software. Based on regression analysis, the associated vulnerability fixing times can be explained very well merely by knowing who have reported the vulnerabilities. Severity, proof-of-concept code, commits made to a version control system, comments posted on a bug tracker, and references to other sources do not explain the vulnerability fixing times. With these results, the paper contributes to the recent effort to better understand security of the Python ecosystem.
- Abstract(参考訳): この記事では、現在最も人気のあるプログラミング言語であるPythonのリファレンス実装とインタプリタであるCPythonのソフトウェア脆弱性の処理時間について検討する。
背景には、いわゆる脆弱性ライフサイクル分析、バグ修正時間に関する文献、Pythonソフトウェアのセキュリティに関する最近の研究などがある。
回帰分析に基づいて、関連する脆弱性の修正時間は、脆弱性を報告した人物を知るだけで非常にうまく説明できる。
深刻さ、概念実証コード、バージョン管理システムへのコミット、バグトラッカーに投稿されたコメント、他のソースへの参照など、脆弱性の修正時間は説明されていない。
これらの結果により、この論文はPythonエコシステムのセキュリティをよりよく理解するための最近の取り組みに貢献している。
関連論文リスト
- SafePyScript: A Web-Based Solution for Machine Learning-Driven Vulnerability Detection in Python [0.0]
SafePyScriptはPythonソースコードの脆弱性を特定するために設計された機械学習ベースのWebアプリケーションである。
主要なプログラミング言語としてのPythonの重要性にもかかわらず、現在、ソースコードの脆弱性を検出するための便利で使いやすい機械学習ベースのWebアプリケーションは存在しない。
論文 参考訳(メタデータ) (2024-11-01T14:49:33Z) - How Maintainable is Proficient Code? A Case Study of Three PyPI Libraries [3.0105723746073]
ファイル内の有能なコードのリスクレベルについて検討する。
リスクの高い高度に熟練したコードのいくつかの例を特定します。
この研究は、開発者が有能なコードが将来のコードメンテナンス活動に有害かもしれないシナリオを特定するのに役立ちます。
論文 参考訳(メタデータ) (2024-10-08T04:45:11Z) - CRUXEval-X: A Benchmark for Multilingual Code Reasoning, Understanding and Execution [50.7413285637879]
CRUXEVAL-Xコード推論ベンチマークには19のプログラミング言語が含まれている。
各言語に対して少なくとも600人の被験者で構成され、合計19Kのコンテンツ一貫性テストがある。
Pythonでのみトレーニングされたモデルでさえ、他の言語で34.4%のPass@1を達成することができる。
論文 参考訳(メタデータ) (2024-08-23T11:43:00Z) - Towards Identifying Code Proficiency through the Analysis of Python Textbooks [7.381102801726683]
目的は、開発者がソースコードの一部を理解する必要がある熟練度を測定することである。
専門家の意見や開発者調査に大きく依存した以前の試みは、かなりの相違を招いた。
本稿では,Python プログラミング教科書の体系的解析を通じて,Python の能力レベルを同定する手法を提案する。
論文 参考訳(メタデータ) (2024-08-05T06:37:10Z) - Python Fuzzing for Trustworthy Machine Learning Frameworks [0.0]
我々はSydr-Fuzzを用いたPythonプロジェクトの動的解析パイプラインを提案する。
私たちのパイプラインにはファジング、コーパスの最小化、クラッシュトリアージ、カバレッジ収集が含まれています。
機械学習フレームワークの最も脆弱な部分を特定するために、攻撃の潜在的な表面を分析し、PyTorchのファズターゲットとh5pyなどの関連プロジェクトを開発する。
論文 参考訳(メタデータ) (2024-03-19T13:41:11Z) - Causal-learn: Causal Discovery in Python [53.17423883919072]
因果発見は、観測データから因果関係を明らかにすることを目的としている。
$textitcausal-learn$は因果発見のためのオープンソースのPythonライブラリである。
論文 参考訳(メタデータ) (2023-07-31T05:00:35Z) - Exploring Security Commits in Python [11.533638656389137]
Pythonのほとんどのセキュリティ問題は、CVEによってインデックス化されておらず、'silent'セキュリティコミットによってのみ修正される可能性がある。
限られたデータバリエーション、非包括的コードセマンティクス、解釈不能な学習機能のために、隠れたセキュリティコミットを特定することが重要だ。
Pythonの最初のセキュリティコミットデータセットであるPySecDBを構築し、ベースデータセット、パイロットデータセット、拡張データセットを含む3つのサブセットで構成される。
論文 参考訳(メタデータ) (2023-07-21T18:46:45Z) - A Static Evaluation of Code Completion by Large Language Models [65.18008807383816]
単純なプログラミング問題に対するモデル生成コードの機能的正当性を評価するために,実行ベースベンチマークが提案されている。
プログラムを実行せずにエラーを検出するlinterのような静的解析ツールは、コード生成モデルを評価するために十分に研究されていない。
抽象構文木を利用して,Pythonのコード補完における静的エラーを定量化する静的評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-05T19:23:34Z) - CodeLMSec Benchmark: Systematically Evaluating and Finding Security
Vulnerabilities in Black-Box Code Language Models [58.27254444280376]
自動コード生成のための大規模言語モデル(LLM)は、いくつかのプログラミングタスクにおいてブレークスルーを達成した。
これらのモデルのトレーニングデータは、通常、インターネット(例えばオープンソースのリポジトリから)から収集され、障害やセキュリティ上の脆弱性を含む可能性がある。
この不衛生なトレーニングデータは、言語モデルにこれらの脆弱性を学習させ、コード生成手順中にそれを伝播させる可能性がある。
論文 参考訳(メタデータ) (2023-02-08T11:54:07Z) - BackdoorBox: A Python Toolbox for Backdoor Learning [67.53987387581222]
このPythonツールボックスは、代表的で高度なバックドア攻撃と防御を実装している。
研究者や開発者は、ベンチマークやローカルデータセットで、さまざまなメソッドを簡単に実装し、比較することができる。
論文 参考訳(メタデータ) (2023-02-01T09:45:42Z) - Break-It-Fix-It: Unsupervised Learning for Program Repair [90.55497679266442]
我々は2つの重要なアイデアを持つ新しいトレーニング手法であるBreak-It-Fix-It (BIFI)を提案する。
批判者は、実際の悪い入力でフィクスダーの出力をチェックし、トレーニングデータに良い(固定された)出力を追加する。
これらのアイデアに基づいて、よりペア化されたデータを生成するために、ブレーカとフィクスチャを同時に使用しながら、繰り返し更新する。
BIFIは既存のメソッドより優れており、GitHub-Pythonで90.5%、DeepFixで71.7%の修正精度がある。
論文 参考訳(メタデータ) (2021-06-11T20:31:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。