論文の概要: FuzzEval: Assessing Fuzzers on Generating Context-Sensitive Inputs
- arxiv url: http://arxiv.org/abs/2409.12331v1
- Date: Wed, 18 Sep 2024 21:55:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 15:26:10.176714
- Title: FuzzEval: Assessing Fuzzers on Generating Context-Sensitive Inputs
- Title(参考訳): FuzzEval: コンテキスト知覚入力生成におけるファジィアの評価
- Authors: S Mahmudul Hasan, Polina Kozyreva, Endadul Hoque,
- Abstract要約: 本稿では,暗号規格をテストするための文脈依存型入力を生成するファジィザの能力を包括的に評価する。
本研究は, 生成した入力の妥当性と多様性の観点から, ファジィ間の性能差を明らかにした。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cryptographic protocols form the backbone of modern security systems, yet vulnerabilities persist within their implementations. Traditional testing techniques, including fuzzing, have struggled to effectively identify vulnerabilities in cryptographic libraries due to their reliance on context-sensitive inputs. This paper presents a comprehensive evaluation of eleven state-of-the-art fuzzers' ability to generate context-sensitive inputs for testing a cryptographic standard, PKCS#1-v1.5, across thirteen implementations. Our study reveals nuanced performance differences among the fuzzers in terms of the validity and diversity of the produced inputs. This investigation underscores the limitations of existing fuzzers in handling context-sensitive inputs. These findings are expected to drive further research and development in this area.
- Abstract(参考訳): 暗号プロトコルは現代のセキュリティシステムのバックボーンを形成するが、脆弱性は実装内で持続する。
ファジィングを含む従来のテスト技術は、文脈に敏感な入力に依存するため、暗号化ライブラリの脆弱性を効果的に識別するのに苦労してきた。
本稿では,13実装を対象に,暗号標準であるPKCS#1-v1.5をテストするためのコンテキスト依存入力を生成する11種類の最先端ファジィザの総合評価を行う。
本研究は, 生成した入力の妥当性と多様性の観点から, ファジィ間の性能差を明らかにした。
この調査は、文脈に敏感な入力を扱う際の既存のファジィザの限界を浮き彫りにしている。
これらの発見は、この地域のさらなる研究と開発を促進することが期待されている。
関連論文リスト
- Demystifying OS Kernel Fuzzing with a Novel Taxonomy [42.56259589772939]
本研究はOSカーネルファジィングに関する最初の体系的研究である。
2017年から2024年にかけて、トップレベルの会場から99の学術研究の進捗状況をまとめることから始まる。
本稿では,カーネルファジングに特有の9つのコア機能に着目した,ステージベースファジングモデルとファジング分類法を提案する。
論文 参考訳(メタデータ) (2025-01-27T16:03:14Z) - Audio Anti-Spoofing Detection: A Survey [7.3348524333159]
ディープラーニングは、Deepfakeとして知られるマルチメディアフェイクコンテンツを操作または作成できる洗練されたアルゴリズムを生み出した。
防汚対策の開発を促進するため, 防汚対策の音響的課題が編成されている。
本稿では,アルゴリズムアーキテクチャ,最適化手法,アプリケーション一般化性,評価指標,パフォーマンス比較,利用可能なデータセット,オープンソース可用性など,検出パイプライン内のすべてのコンポーネントについて,包括的なレビューを行う。
論文 参考訳(メタデータ) (2024-04-22T06:52:12Z) - DeVAIC: A Tool for Security Assessment of AI-generated Code [5.383910843560784]
DeVAIC (Detection of Vulnerabilities in AI Generated Code)は、AI生成のPythonコードのセキュリティを評価するツールである。
論文 参考訳(メタデータ) (2024-04-11T08:27:23Z) - Assaying on the Robustness of Zero-Shot Machine-Generated Text Detectors [57.7003399760813]
先進的なLarge Language Models (LLMs) とその特殊な変種を探索し、いくつかの方法でこの分野に寄与する。
トピックと検出性能の間に有意な相関関係が発見された。
これらの調査は、様々なトピックにまたがるこれらの検出手法の適応性と堅牢性に光を当てた。
論文 参考訳(メタデータ) (2023-12-20T10:53:53Z) - DeepfakeBench: A Comprehensive Benchmark of Deepfake Detection [55.70982767084996]
ディープフェイク検出の分野で見落とされがちな課題は、標準化され、統一され、包括的なベンチマークがないことである。
DeepfakeBenchと呼ばれる,3つの重要なコントリビューションを提供するディープフェイク検出のための,最初の包括的なベンチマークを提示する。
DeepfakeBenchには15の最先端検出方法、9CLデータセット、一連のDeepfake検出評価プロトコルと分析ツール、包括的な評価ツールが含まれている。
論文 参考訳(メタデータ) (2023-07-04T01:34:41Z) - Improving the Robustness of Summarization Systems with Dual Augmentation [68.53139002203118]
頑健な要約システムは、入力中の特定の単語の選択やノイズに関わらず、文書のギストをキャプチャできるべきである。
まず,単語レベルの同義語置換や雑音を含む摂動に対する要約モデルの頑健性について検討する。
SummAttackerを提案する。これは言語モデルに基づく対数サンプルを生成するための効率的な手法である。
論文 参考訳(メタデータ) (2023-06-01T19:04:17Z) - Tram: A Token-level Retrieval-augmented Mechanism for Source Code Summarization [76.57699934689468]
ニューラルモデルの性能を高めるために,デコーダ側で詳細なTokenレベル検索強化機構(Tram)を提案する。
文脈的コードセマンティクスの取得におけるトークンレベルの検索の課題を克服するために,コードセマンティクスを個々の要約トークンに統合することを提案する。
論文 参考訳(メタデータ) (2023-05-18T16:02:04Z) - Can AI-Generated Text be Reliably Detected? [50.95804851595018]
大規模言語モデル(LLM)は、様々なアプリケーションで非常によく機能します。
盗作、偽ニュースの発生、スパムなどの活動においてこれらのモデルが誤用される可能性があることは、彼らの責任ある使用に対する懸念を引き起こしている。
我々は、攻撃者の存在下で、これらのAIテキスト検出装置の堅牢性を強調テストする。
論文 参考訳(メタデータ) (2023-03-17T17:53:19Z) - "That Is a Suspicious Reaction!": Interpreting Logits Variation to
Detect NLP Adversarial Attacks [0.2999888908665659]
敵攻撃は、現在の機械学習研究で直面する大きな課題である。
本研究は, 逆文例のモデルに依存しない検出法を提案する。
論文 参考訳(メタデータ) (2022-04-10T09:24:41Z) - Spotting adversarial samples for speaker verification by neural vocoders [102.1486475058963]
我々は、自動話者検証(ASV)のための敵対サンプルを見つけるために、ニューラルボコーダを採用する。
元の音声と再合成音声のASVスコアの違いは、真正と逆正のサンプルの識別に良い指標であることがわかった。
私たちのコードは、将来的な比較作業のためにオープンソースにされます。
論文 参考訳(メタデータ) (2021-07-01T08:58:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。